Frage „Probleme“ nach Undervolting mit Ryzen 5900x

Kubi

Mitglied
Mitglied seit
Feb 25, 2024
Beiträge
80
Bewertungspunkte
7
Punkte
7
Moin Leute.

eigentlich sollte ich mich gar nicht beschweren.
Ich habe meinen 5900 X undervolted. Sowie meine 4070ti.

die Temperaturen sind SEHR viel besser geworden. Auch beim gaming bemerke ich einen ordentlichen FPS Schub.
und natürlich gesenkten Stromverbrauch.

ABER.

mein cinebench score war VOR dem anpassen bei 12k punkten.
JETZT ist er nur noch bei knapp 2k.
er braucht auch deutlich länger zum rendern.
wie bitte ist es möglich !?

orientiert habe ich mich an diesem video.
und konnte sogar exakt seine werte übernehmen.



Bis 2:45 habe ich alles so übernommen.

Bei Fragen, oder zur Vollständigkeit - werde ich ergänzend antworten.
 
Warum machst das auch?

Ich hoffe ja das @Kubi noch mit lernt,Prime mit -225mV
Anhang anzeigen 31479

BoostTest mit -0mV,hier sollte einem schon auffallen was die CPU macht.Kleiner Tipp,der Effektive Takt
Anhang anzeigen 31480

besonders beim BoostTest mit -225mV.
Anhang anzeigen 31481

Ich hoffe das wenigstens DIR und @Kubi das auffällt.
Für (um ihn nicht zu Vergessen) @arcDaniel ist das Zauberei und ich bin mir nicht sicher ob die AMD CPUs intelligenter sind als die AMD Leute,ABER ich bin mir zu 1000% sicher das Ich die CPU Verstehe und das hat nix mit Zauber Trix zu tun.;)
Und Ich hab auch Verstanden das man sich nicht jeden Werbemüll andrehen lassen sollte wie MSI Mainboard die die CPU selber regeln wollen.

Was fällt also auf beim Effektiven Takt?
Habe mal kurz via Linux drüber geschaut.

Wenn ich mir die einzelnen Kerne und ihren jeweiligen Verbrauch betrachte besteht da noch weiteres Optimierungspotenzial via Spannungskurve in PBO, die Ergebnisse sind keine Zauberei und die -225mV laufen auch auf jedem Kern Stabil?
Würde ich noch via Core Cycler testen.

Core 8 hat den geringsten Verbrauch im Idle. im Boost gibt es mehrere Zugpferde die aber noch im Kurve optimizer optimiert werden könnten.
So muss nun wieder raus aus Linux...
 
Grobe Einstellung schaut jetzt so aus.
-100mV
3.jpg


LLC auf 3
2.jpg

Boost Clock 75
1.jpg

Der Single Core ist mit -100mV erst mal recht Identisch.
CCD1 und CCD2 laufen Asynchrone.
Single Core Eingestellt.png


Jetzt wird der Multi Core Takt auf 75Watt angepasst.
 
Du hast die Daten also nicht verstanden..........
Ich hab sie hinsichtlich Optimierungspotenzial der einzelnen Kerne überflogen,
Man kann vieles daraus lesen analysieren würde ich die Werte aber in einer Tabelle (Verbrauch in Watt Pro Kern bei Takt, Temperatur und Benchmark Ergebnissen)
Nach dem UV hast Du etwa 5 Watt eingespart.
Jedoch ist die Frage nach dem Performern der einzelnen Kerne isoliert betrachtet damit noch nicht beantwortet.
 
Ich hab sie hinsichtlich Optimierungspotenzial der einzelnen Kerne überflogen,
Man kann vieles daraus lesen analysieren würde ich die Werte aber in einer Tabelle (Verbrauch in Watt Pro Kern bei Takt, Temperatur und Benchmark Ergebnissen)
Nach dem UV hast Du etwa 5 Watt eingespart.
Jedoch ist die Frage nach dem Performern der einzelnen Kerne isoliert betrachtet damit noch nicht beantwortet.
1. braucht er Single Core Leistung,die sollte da sein.
2. kannst du genau sehen das die CPU bei einer Spannung von 1,265V wie ich schon geschrieben hatte nicht bis zum Absturz auf 5GHz taktet was ja durch den CO oder das falsche Mainboard passier,sondern JEDEN Einzelnen Kerne auf diese 1,265V anpasst,genau das was DU von Hand Stundenlang machst.
Und du solltest nicht vergessen mit welchem Test du die Daten ermittelst,weil jeder Test anders läuft,einen anderen Takt und Verbrauch hat.
Der BoosTest ist z.b. schlecht weil er keine Reale Last erzeugt wie in Spielen und dann fehlt der Takt und der Druck.
 
1. braucht er Single Core Leistung,die sollte da sein.
2. kannst du genau sehen das die CPU bei einer Spannung von 1,265V wie ich schon geschrieben hatte nicht bis zum Absturz auf 5GHz taktet was ja durch den CO oder das falsche Mainboard passier,sondern JEDEN Einzelnen Kerne auf diese 1,265V anpasst,genau das was DU von Hand Stundenlang machst.
Und du solltest nicht vergessen mit welchem Test du die Daten ermittelst,weil jeder Test anders läuft,einen anderen Takt und Verbrauch hat.
Der BoosTest ist z.b. schlecht weil er keine Reale Last erzeugt wie in Spielen und dann fehlt der Takt und der Druck.
Du kannst auch Benchmarks auf einzelnen Cores laufen lassen, via Task Manager oder ProcessLasso. Du musst das ja nicht genauso machen wie ich mit einer Excel Tabelle. In welche Du alle Werte Spannung, Watt, Temperatur, Takt und Benchmark Ergebnisse etc. eintragen tust, das braucht (nebenher kann man andere Dinge tun) schon mehr als ein paar Stunden... aber es wäre mal eine andere Test Strecke für Dich zum Fahren.

So nun wieder weiter mit der Casi030 Fahrschule und weiteren Grundlagen für Kubi
 
Du kannst auch Benchmarks auf einzelnen Cores laufen lassen, via Task Manager oder ProcessLasso. Du musst das ja nicht genauso machen wie ich mit einer Excel Tabelle. In welche Du alle Werte Spannung, Watt, Temperatur, Takt und Benchmark Ergebnisse etc. eintragen tust, das braucht (nebenher kann man andere Dinge tun) schon mehr als ein paar Stunden... aber es wäre mal eine andere Test Strecke für Dich zum Fahren.

So nun wieder weiter mit der Casi030 Fahrschule und weiteren Grundlagen für Kubi
Was soll das bringen die Kernen einzeln zu Testen?
 
Zuletzt bearbeitet :
Was soll das bringen die Kernen einzeln zu Testen?
Man kann ihnen Namen zuweisen und ihr Verhalten analysieren.
Welcher Kern bei welcher Temperatur, bei wie viel Watt mit welchem Takt jenes Benchmark Ergebnis erzielt, dies gibt dann Rückschlüsse für weitere Optimierungen. Offset um aus jedem Kern das Maximum heraus zu holen, als auch UV grenzen für jeden Kern auszuloten. um dann das ganze auf Stabilität zu prüfen. Brauchst Du aber nicht wenn Du mit Deinem Ergebnis bereits zufrieden bist.
 
Man kann ihnen Namen zuweisen und ihr Verhalten analysieren.
Welcher Kern bei welcher Temperatur, bei wie viel Watt mit welchem Takt jenes Benchmark Ergebnis erzielt, dies gibt dann Rückschlüsse für weitere Optimierungen. Offset um aus jedem Kern das Maximum heraus zu holen, als auch UV grenzen für jeden Kern auszuloten. um dann das ganze auf Stabilität zu prüfen. Brauchst Du aber nicht wenn Du mit Deinem Ergebnis bereits zufrieden bist.
Genau das brauch ich nicht weil die CPU das für MICH übernimmt.
Die Feineinstellung übernimmt jetzt das Mainboard,bzw die Spannungswandler im Multicore.;)
Nur leider hab ich wieder das Problem mit der Kernabschaltung ,TDC und EDC,wenn du die änderst kommt es dazu das EDC nicht mehr auf 100% kommt sondern nur noch auf 75% und das musst dann im Bios bei EDC berücksichtigen.......Aus 100A müssen dann 136A werden......
 
PPT, (edit) TDC und EDC Werte kann man ebenso in einer Tabelle austarieren, bei jeder Änderung reagieren die Kerne dann Teilweise wieder ganz unterschiedlich, es dauert bis man ihre Eigenheiten kennen lernt. Wenn ich nur ein globales UV oder OC Betreibe dann. Habe ich gar keine Beziehung zu den Besonderheiten der Kerne, kann diese nicht individuell fördern oder mässigen.
 
PPT, (edit) TDC und EDC Werte kann man ebenso in einer Tabelle austarieren, bei jeder Änderung reagieren die Kerne dann Teilweise wieder ganz unterschiedlich, es dauert bis man ihre Eigenheiten kennen lernt. Wenn ich nur ein globales UV oder OC Betreibe dann. Habe ich gar keine Beziehung zu den Besonderheiten der Kerne, kann diese nicht individuell fördern oder mässigen.
Deswegen hab ich jetzt 21Watt eingespart und über 10°C weil es nix bring.;)

Standard mit SMT
96Watt mit SMT.jpg


Standard ohne SMT
96Watt ohne SMT.jpg

Auf 75Watt Optimiert.
75Watt Optimiert.jpg
 
Glückwünsche zu den Einsparungen, ich kann es leider kaum lesen mit der gelben Schrift.
Aber ich dachte Du spielst nur Benchmarks 😱
Lässt sich Plötze nun geschmeidiger reiten?
 
Weiter geht es.
PPT auf 75Watt und der Rest bleibt erst mal.
TDC liegt jetzt bei max 51,244A
EDC bei max 100.856A
CCDs laufen Synchrone mit minimalem Clock Stretching.
Eingangsmessung Multi.png


Nun wird EDC mit 52A und EDC mit 100A eingetragen im Bios.
Jetzt wird nur noch geschaut über EDC Senkung das der Effektive Takt und die Punkte in CineBench R23 rauf gehen,wenn die Punkte wieder runter gehen und oder die CCDs wieder anfangen unterschiedlich zu Takten hat man EDC auch eingestellt.
unknown_2024.02.29-15.38.png

Jetzt kann man noch eine Feinjustierung über LLC vornehmen,bei mir von Level3 auf 4.
unknown_2024.02.29-16.09.png

Am Ende schaut man sich die Daten im Spiel an wie Oben schon gezeigt.
Wenn man Spiele hat die nen hohen Single Core haben,dann vergleicht man da während dem Einstellen auch schon.
 
Glückwünsche zu den Einsparungen, ich kann es leider kaum lesen mit der gelben Schrift.
Aber ich dachte Du spielst nur Benchmarks 😱
Lässt sich Plötze nun geschmeidiger reiten?
Danke,aber Wissen verhilft zum Glück.;)
Auch ist eine Simulierte immer etwas schwieriger zu Optimieren als eine echte CPU.
Natürlich ohne Ram OC sparst eh einiges ein,aber 16Kerne ohne SMT bei max PPT65Watt sehen noch mal anders aus mit 52Watt und 41°C.
52Watt mit 16 Kernen.jpg


Wenn die Blöden Spiele die man Testen will keinen Benchmark haben,dann muss man sich irgend wo ne Stelle suchen.🤮
 
Weiter geht es.
PPT auf 75Watt und der Rest bleibt erst mal.
TDC liegt jetzt bei max 51,244A
EDC bei max 100.856A
CCDs laufen Synchrone mit minimalem Clock Stretching.
Anhang anzeigen 31521


Nun wird EDC mit 52A und EDC mit 100A eingetragen im Bios.
Jetzt wird nur noch geschaut über EDC Senkung das der Effektive Takt und die Punkte in CineBench R23 rauf gehen,wenn die Punkte wieder runter gehen und oder die CCDs wieder anfangen unterschiedlich zu Takten hat man EDC auch eingestellt.
Anhang anzeigen 31525

Jetzt kann man noch eine Feinjustierung über LLC vornehmen,bei mir von Level3 auf 4.
Anhang anzeigen 31526

Am Ende schaut man sich die Daten im Spiel an wie Oben schon gezeigt.
Wenn man Spiele hat die nen hohen Single Core haben,dann vergleicht man da während dem Einstellen auch schon.
Oh ich dachte das ist Fahrschulunterricht für Kubi
 
Danke,aber Wissen verhilft zum Glück.;)
Auch ist eine Simulierte immer etwas schwieriger zu Optimieren als eine echte CPU.
Natürlich ohne Ram OC sparst eh einiges ein,aber 16Kerne ohne SMT bei max PPT65Watt sehen noch mal anders aus mit 52Watt und 41°C.
Anhang anzeigen 31527


Wenn die Blöden Spiele die man Testen will keinen Benchmark haben,dann muss man sich irgend wo ne Stelle suchen.🤮
Oh aber es gibt bedeutend blödere Spiele wie Witcher 3, nur Plötze dirigiert sich auf NVIDIA Karten etwas geschmeidiger vom Input Lag her. Habe aber die aktuellste Version noch nicht gespielt...
 
Oh aber es gibt bedeutend blödere Spiele wie Witcher 3, nur Plötze dirigiert sich auf NVIDIA Karten etwas geschmeidiger vom Input Lag her. Habe aber die aktuellste Version noch nicht gespielt...
Ich hätte ja auch lieber CSGO FPS Benchmark gespielt, aber ist in 2 ja nicht mehr vorhanden.
F1 2022 braucht mehr Ramtakt, das hat er ja.
Ansonsten wüsste ich jetzt kein Spiel was mehr auf Single Core geht um diesen im Spiel noch an zu passen,deswegen auch ehr CPUz und nicht Boost Test.
 
Oben Unten