Frage AMD Preview Treiber fixt High Idle Powerdraw von RX7000!!!

@ Gregor Kacknoob

Ich verstehe dich, aber was kostet das in kWh an Strom ?
Das ist fast wie Alkohol im Promille Bereich.
Aber im Vergleich zur Schwubdizität des System, unbezahlbar!

Wenn du Strom sparen willst dann surf auf einem smartTV oder dem smartPhone.
Please be patient, the System is working...
 
Ich verstehe dich, aber was kostet das in kWh an Strom ?

Ich will jetzt keine Erbsen zählen, mache es aber trotzdem...
So ein hoher Verbrauch wirkt sich nicht gravierend auf die monatliche Stromrechnung aus...
Trotzdem wirken solche hohen Watt-zahlen wie aus der Zeit gefallen.
Als ob ein Gerät im Standby noch 15 Watt lutscht.
Das entspricht einfach nicht meinem Anspruch an ein modernes Gerät !

Multipliziere das millionenfach, und dann ist es total daneben!

Mit moderner und gleichzeitig ökologischer Technik hat das nichts zu tun.
Es ist einfach nur total daneben.
Soviel Energie zu verbraten,wenn nichts los ist.

Ganz nebenbei finde ich surfen auf dem Smartphone für mich vollkommen
uninteressant und unpraktisch. Nicht sexy :)
 
@ ipat66

Ich Versuche es mal mit einem Wasser Kocher zu erklären:

Wenn du Wasser mit einem Herd erhitzt, dauert es 30 Minuten @ 2500W
Ein Wasser Kocher braucht nur 8 Minuten für die selbe Menge an Wasser @ 2200W
Zudem kühlt der Wasser Kocher schneller ab als eine große Herd-Platte.

Race to IDLE matters, more then ever !
 
Das ist aber ein besch**** Herd, oder ein 5 Liter Wasserkocher ;)
Prinzipiell ist nicht notwendiger Verbrauch halt immer zu vermeiden... vor allem wenn am Ende nichts sinnvolles dabei rauskommt..
Ist ja dann doch immer noch ein Unterschied ob ich Lebensmittel zubereite oder das Ende von Youtube erreichen will.
Und ich habe zb einen Bekannten mit 2 4K Monitoren, da wäre der Unterschied zwischen 4080 und 7900XT(x) was den Alltagsbetrieb angeht
grob überschlagen irgendwo bei 20-35 Euro im Jahr auf der Stromrechnung, aber wie IPAT schon gesagt hat wenn man das zb auf 500000 Haushalte hochrechnet... macht auch Mist :)
 
Das ist aber ein besch**** Herd, oder ein 5 Liter Wasserkocher ;)
Prinzipiell ist nicht notwendiger Verbrauch halt immer zu vermeiden... vor allem wenn am Ende nichts sinnvolles dabei rauskommt..
Ist ja dann doch immer noch ein Unterschied ob ich Lebensmittel zubereite oder das Ende von Youtube erreichen will.
Genau, mit einem Induktive Herd geht es auch in 15 Minuten, aber nicht ohne weniger Strom.
Spagetti werden im Kleinen Topf nichts, die sind zu lang(sam) :ROFLMAO:
 
Ich verstehe dich, aber was kostet das in kWh an Strom ?
Das ist fast wie Alkohol im Promille Bereich.
Aber im Vergleich zur Schwubdizität des System, unbezahlbar!
Es sind 30 bis 60 Watt Mehr verbrauch als wenn die Grafikkarte richtig in den Idle geht. Diesen Mehrverbrauch hat man immer, wenn der PC im Idle oder mit sehr geringer Last läuft. Bei einem Office-PC ist das den ganzen Tag und auch bei den meisten PCs die für verschiedenes genutzt werden ist es mehr als die Hälfte der Zeit.

Der Auslöser ist ein schlecht programmierter Mechanismus. Ab einer gewissen geforderten Leistung taktet die Grafikkarte GPU und RAM höher. Diese Limiten sind aber viel zu tief angesetzt. Bereits ein Bildschirm mit 140 Hz auf dem sich nichts verändert, kann den Takt hochschnellen lassen. Klar muss die Grafikkarte 144 Bilder pro Sekunde aus dem Speicher lesen und der Grafikkarte übermitteln. Die Auslastung der RAMs und der GPU dümpeln dabei aber bei 1 bis 2 % herum. Dafür braucht es nicht fast den maximalen Takt.

Einen Nutzen hat der hohe Verbrauch nicht. Wenn die Grafikkarte wirklich mehr Leistung benötigt, kann sie ein einer Tausendstelsekunde hochtakten. Dein Vergleich mit dem Wasserkocher hinkt. Hier wird dauerhaft mehr oder weniger Energie verheizt um gar nichts zu tun. Das bisschen Arbeit lässt sich mit 5 bis 10 Watt problemlos bewältigen. Die weiteren 50 Watt werden einfach nur verheizt. So zu sagen weil das Standgas viel zu hoch eingestellt ist.

So, nun mal eine Beispielrechnung.
- 50 Watt unnötiger Mehrverbrauch
- 40 Stunden pro Woche (Büro oder PC der am Abend zu hause läuft)
50 Watt * 40 h = 2000 Wh = 2 kWh in der Woche
2 kWh pro Woche * 50 Wochen = 100 kWh/Jahr
Bei einem Strompreis von -.30 macht das 30.- pro Jahr.

Wenn wir von einer Lebensdauer der Grafikkarte von gut 3 Jahren aus gehen sind es 100.- die sie verheizt. Bei vielen laufen die Grafikkarten aber länger oder werden in einem anderen PC weiter verwendet. Bei 6 bis 7 Jahren sind wir dann bei 200.- die man eigentlich auf den Preis der Grafikkarte drauf rechnen müsste weil sie das einfach so für nichts verheizt.

Solche unnötigen Verbräuche führen auch dazu, dass das die Kraftwerke und das Stromnetz für einen höheren Maximalverbrauch ausgebaut werden müssen. Das ist einfach nur schade und teuer.
 
@ Martin
Kannst du mir das nochmal in Gleich- und Wechsel-Strom entschlüsseln ?

Warum ist Cache wohl King ? Weil das Kondensatoren sind die Strom vorhalten ohne Verluste.
Daher ist ein kleiner Peak auf der Primär Seite (230V) nicht wirklich Messbar.

Es geht um die Hitze und die Dauer der Abkühlung, wir sind keine Maschinen.
Menschen Arbeiten Körperlich bis 30°C, danach oder darüber ist Siesta angesagt: ausruhen im Schatten. ;)
 
Kannst du mir das nochmal in Gleich- und Wechsel-Strom entschlüsseln ?

Warum ist Cache wohl King ? Weil das Kondensatoren sind die Strom vorhalten ohne Verluste.
Daher ist ein kleiner Peak auf der Primär Seite (230V) nicht wirklich Messbar.
Tut mir leid, ich verstehe deine Frage nicht. Wenn die Grafikkarte 50 Watt (Gleichstrom) verbraucht, dann zieht das Netzteil etwas mehr vom Stromnetz (Wechselstrom). Bei einem üblichen Wirkungsgrad sind das dann etwa 55 bis 60 Watt von der Steckdose. In der Beispielrechnung habe ich das der Einfachheit halber einfach mal weg gelassen.

Was hat die Speicherung von Strom mit dem Thema oben zu tun? Wenn ein PC die ganze Zeit 50 Watt verbraucht, dann sind das 50 Watt die auch dauernd produziert werden müssen.
 
Tut mir leid, ich verstehe deine Frage nicht. Wenn die Grafikkarte 50 Watt (Gleichstrom) verbraucht, dann zieht das Netzteil etwas mehr vom Stromnetz (Wechselstrom). Bei einem üblichen Wirkungsgrad sind das dann etwa 55 bis 60 Watt von der Steckdose. In der Beispielrechnung habe ich das der Einfachheit halber einfach mal weg gelassen.

Was hat die Speicherung von Strom mit dem Thema oben zu tun? Wenn ein PC die ganze Zeit 50 Watt verbraucht, dann sind das 50 Watt die auch dauernd produziert werden müssen.
Ja, das hast du soweit richtig Verstanden,
Aber in welcher Zeit-Spanne, in einer Minute kocht kein Wasser auf unserem Planeten.
Es sei den es ist ein Vulkan. :unsure:
 
Ich verstehe dich, aber was kostet das in kWh an Strom ?
Das ist nicht der springende Punkt. Die Graka verbrauch tbeim Spielen irgendwas bei 400W. Ich finde nicht die geringfügigen Mehrkosten ungeil, sondern das Problem als solches und die damit ggf. einhergehenden Nebeneffekte - von denen ich/wir vllt. noch nichts wissen.

Möglichkeit A: die Graka verkackt einfach nur die Stromsparmechanismen. Sie bringt aber in jedem Leistungszustand die korrekte Rechenpower.
Möglichkeit B: irgendwo geht Rechenpower verloren, weshalb die Graka in einen erhöhten Leistungszustand gehen muss. Wer sagt, dass das nicht auch bei 400W der Fall ist?

Es scheint sehr vom Setup und irgendwie auch vom Zeitpunkt abhängig zu sein. Es ist Inkonsistens sein Vater und so tief gehende Bugs haben i.d.R. fiese Nebeneffekte. Mal abgesehen davon: ich kaufe ein Highendprodukt nicht dafür, dass sie dann Monate lang nur so lala funktioniert.

Und was die Kosten angeht. Mein OLED Bildschirm/TV verbraucht irgendwo das dreifache auf dem Desktop. Es geht nicht um die Kosten, Geld habe ich genug, sondern um die Sinnlosigkeit der Energiesparfunktion oder was auch immer da nicht richtig funktioniert. Es produziert unnötig Wärme und die Lüfter drehen unnötig höher.

Das hier gleicht mehr mutwilliger Verschwendung. Nur weil man es kann, muss man es nicht tun oder billigend in Kauf nehmen. Wir haben heute weit weniger Insekten als früher und es ist seit Jahren viel heißer. Das ist meine persönliche Erfahrung. Ich erinnere mich. Natürlich tue ich was ich kann und natürlich bin ich angepisst, wenn man mich (unbeabsichtig) dabei sabotiert. Wer bin ich mich für das Retten der Wale auszusprechen und hintenrum mit den Schultern zu zucken, wenn die Graka 50W mehr verbraucht, als 'ne fu***ing Vega 64.
 
Das ist nicht der springende Punkt. Die Graka verbrauch tbeim Spielen irgendwas bei 400W. Ich finde nicht die geringfügigen Mehrkosten ungeil, sondern das Problem als solches und die damit ggf. einhergehenden Nebeneffekte - von denen ich/wir vllt. noch nichts wissen.

Möglichkeit A: die Graka verkackt einfach nur die Stromsparmechanismen. Sie bringt aber in jedem Leistungszustand die korrekte Rechenpower.
Möglichkeit B: irgendwo geht Rechenpower verloren, weshalb die Graka in einen erhöhten Leistungszustand gehen muss. Wer sagt, dass das nicht auch bei 400W der Fall ist?

Es scheint sehr vom Setup und irgendwie auch vom Zeitpunkt abhängig zu sein. Es ist Inkonsistens sein Vater und so tief gehende Bugs haben i.d.R. fiese Nebeneffekte. Mal abgesehen davon: ich kaufe ein Highendprodukt nicht dafür, dass sie dann Monate lang nur so lala funktioniert.

Und was die Kosten angeht. Mein OLED Bildschirm/TV verbraucht irgendwo das dreifache auf dem Desktop. Es geht nicht um die Kosten, Geld habe ich genug, sondern um die Sinnlosigkeit der Energiesparfunktion oder was auch immer da nicht richtig funktioniert. Es produziert unnötig Wärme und die Lüfter drehen unnötig höher.

Das hier gleicht mehr mutwilliger Verschwendung. Nur weil man es kann, muss man es nicht tun oder billigend in Kauf nehmen. Wir haben heute weit weniger Insekten als früher und es ist seit Jahren viel heißer. Das ist meine persönliche Erfahrung. Ich erinnere mich. Natürlich tue ich was ich kann und natürlich bin ich angepisst, wenn man mich (unbeabsichtig) dabei sabotiert. Wer bin ich mich für das Retten der Wale auszusprechen und hintenrum mit den Schultern zu zucken, wenn die Graka 50W mehr verbraucht, als 'ne fu***ing Vega 64.
Ich bin da voll bei dir, evt. mehr als du denkst. ;)
Womit misst du den die Temperatur oder die Spannungen ?

Mit der Software die alles unter einem Hut bringen will ?
Also alle Natur Gesetzte Ignoriert und nur das macht was dein Zahlen Salat in deinem Kosmischen Reich zulässt.

Warum Kalibrieren wir wohl (LLC der Spannungswandler)
Warum will die Mobile Industrie ein Zertifikat das von jemandem Persönlich Unterschrieben wurde ?

Weil alles Einfacher wird, klaro! :giggle:
 
Womit misst du den die Temperatur oder die Spannungen ?
In diesem Fall kannst du GPU-z oder HWinfo64 nehmen und die Leistung der Grafikkarte auslesen. Klar, die Angabe ist nicht besonders genau. Alternativ kann man darum mit einem Strommessgerät den Verbrauch an der Steckdose messen. Da sieht man schön, dass sich der Verbrauch an der Steckdose ebenso verändert wie der angezeigte Verbrauch. An der Steckdose ist natürlich immer noch der Verbrauch der anderen PC-Komponenten dabei. Aber wenn die CPU nicht viel zu tun hat bleibt der ungefähr gleich. Wenn man nichts macht am PC und beispielsweise die Frequenz des Bildschirms senkt, sieht man schön wie es sich auswirkt.

Möglichkeit A: die Graka verkackt einfach nur die Stromsparmechanismen. Sie bringt aber in jedem Leistungszustand die korrekte Rechenpower.
Davon gehe ich aus. Das Problem existiert bei Nvidia und AMD seit sicher 7 Grafikkartengenerationen. Es scheinen nur die Bedingungen zum herunter takten schlecht gesetzt zu sein. Dadurch bleibt der Takt unnötig hoch, es wird mehr Strom verbraucht und dem entsprechend wird es wärmer und die Lüfter drehen etwas auf. Andere Auswirkungen wären mir noch nicht zu Ohren gekommen und würden mich eher wundern.
 
Hier könnte sich etwas vielversprechendes ergeben:
Ich hab meine Testreihen für die Effizienz nun durch. Mein Verdacht hat sich bestätigt und ich denke ehrlich gesagt, das AMD mit weiteren Treibern zwar Besserungen erlangen kann.

Navi31 hat aber ein Problem was die Power-Stages betrifft. Das kann ich jetzt ganz offen so schreiben. Das Verhalten von RDNA3 ist in diesem Fall nachvollziehbar und es scheint so zu sein, dass RDNA relativ harte Sprünge in den P-Stages hat und gewisse Stages auch immer eine minimale Last erzeugen.

Ich glaube, das primäre Problem liegt hier daran, das es zu wenige P-States gibt oder an andere Stelle etwas in den P-States dazwischen funkt.
Quelle: https://www.computerbase.de/forum/t...-rx-7000-senken.2150750/page-19#post-28382825

Wirkt auf mich erstmal plausibel, da es diese Inkonsistens/Nervosität der Leistungsaufnahme erklären würde. P-States waren früher konfigurierbar. Wer weiß, vllt. würde ja ein Bios-Update bei der Graka helfen. Graka Bios Updates incoming? :cool:
 
Hatte gehofft durch das Treiberupdate, dass sich der IDLE-Verbrauch meiner 6950XT bei WQHD 144Hz von 40W endlich senkt, Fehlanzeige.

Wie gehabt, 40W @ 144Hz und bei 60Hz 13W. Ram taktet weiter in der "2. Stufe"

echt schade ;( !
 
Bringt der sogenannte "Idle-Fix" evtl nur bei der 7xxxer Reihe was?
 
Wirkt auf mich erstmal plausibel, da es diese Inkonsistens/Nervosität der Leistungsaufnahme erklären würde.
Obwohl ich durch meinen Vater der Elektroingenieur ist einiges von Elektrotechnik verstehe, erschliesst sich mir nicht was hier von P-Stages gefaselt wird. Die Powerstages haben keinen Einfluss darauf, mit welchem Takt GPU und Grafikkartenspeicher laufen. Das BIOS der Karten ist so programmiert, dass es schaut, wie viel Leistung aktuell benötigt wird. Aufgrund dieser Daten wird dann bestimmt mit welchem Takt GPU und RAM laufen sollen. Hier sind die Grenzwerte einfach schlecht gesetzt. Bereits ein Bildschirm mit 144 Hz lässt die Grafikkarte hochfahren weil angenommen wird, dass dafür ein höherer Takt notwendig ist. Die heutigen Grafikkarten sind aber so Leistungsstark, dass sie das auch bei einem Takt von 200 bis 300 MHz locker schaffen würden.

Weil die Karte aber davon ausgeht, dass sie mehr Leistung zur Verfügung stellen muss, dreht sie den Takt sinnlos auf. Durch den höheren Takt brauchen GPU und RAM natürlich mehr Strom.

Die Powerstages liefern dann diesen Strom der nötig ist. Mehr machen die nicht. Die haben keinen Einfluss auf das BIOS, das die Grafikkarte zum Strom sparen herunter regeln könnte.
 
Ich meine P-states gibt's schon seit einigen gens nicht mehr bei AMD.
 
Hatte gehofft durch das Treiberupdate, dass sich der IDLE-Verbrauch meiner 6950XT bei WQHD 144Hz von 40W endlich senkt, Fehlanzeige.

Wie gehabt, 40W @ 144Hz und bei 60Hz 13W. Ram taktet weiter in der "2. Stufe"

echt schade ;( !
Du meinst 40W vom GPU Sensor, also Sekundär Seite vom Netzteil ?

Bei mir Takte er nur bei 100Hz den VRAM Takt höher als mit allen anderen Modi: 60Hz, 119,xxHz, 120Hz, 144Hz brauchen jeweils 2W mehr im IDLE.
Am wenigsten benötigt 60Hz.
Und genau dieser Sekundäre Verbrauch an 12V, beeinflusst die Strom Kosten Primär an 230V nicht.
Solange die GPU nicht die Lüfter aufdreht dürfen da gerne 25W anliegen, auch wenn mir selbst 2W lieber währen.
Aber dann agiert das System langsamer, je höher die FPS desto eher fühlt man es.
Scrollen mit 60Hz geht bei mir gar nicht mehr, das Ruckelt Blockweiße.

Ich vermute mal das hängt mit der VPU zusammen, diese muss ja Monitor und GPU Chip Video Signal jeweils Synchronisieren.
Vermutlich gibt es keine krummen Teiler, krumme Hz dagegen gibt es schon.

Edit: Treiber Version 23.5.1 DCH und AMD Chipset ist auch Up to Date.
 
Zuletzt bearbeitet :
Ich meine P-states gibt's schon seit einigen gens nicht mehr bei AMD.
Doch die gibt es noch, aber das sind "Maximal Performance States"
Es wird schon lange viel feiner skaliert, als die P-State es vorgeben, intern im SoC halt und nicht extern Beeinflusst.
 
Und genau dieser Sekundäre Verbrauch an 12V, beeinflusst die Strom Kosten Primär an 230V nicht.
Nein. Entweder verwechselst du gerade etwas komplett oder dir fehlt das Verständnis der Grundlagen der Elektrotechnik. Das ist jetzt nicht bös gemeint. Es muss sich ja nicht jeder mit der Technik auskennen. Aber wenn die minimalen Grundlagen fehlen ist es etwas schwierig das hier über das Forum zu erklären.

Ein Stromverbrauch ist eine Leistung die in Watt gemessen wird. Das ist Strom der hier fliesst und in den Transistoren der Grafikkarte zu Wärme umgewandelt wird. Das ist keine anliegende Spannung (in Volt) sondern fliessender Strom von dem wir hier reden.

Dieser Strom kommt immer von der Primärseite. Das Netzteil wandelt Strom der von der Steckdose (ursprünglich vom Kraftwerk) kommt um und speist damit die Bauteile des PCs. Jeder Strom, der im PC fliesst, ist Strom der aus der Steckdose kommt und den du bezahlst. Ich habe das weiter oben bereits vorgerechnet wie viel das in diesem Fall ungefähr ist.
 
Oben Unten