Umfangreicher Workstation- und KI-Test mit Intels i9-13900K - Die Leistungs-Profile Baseline, Performance, Extreme und Insane

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.967
Bewertungspunkte
9.472
Punkte
1
Standort
Redaktion
Nachdem wir ja bereits am Montag Aris‘ Artikel über die Leistungsaufnahme des Core i9-13900K in Cinebench 23 veröffentlicht hatten, lege ich heute noch einmal mit einem größeren Programmumfang nach. Und ja, ich nutze bewusst ein Z690-Board, weil ich es auch zum Launch von Raptor Lake S und dem darauf folgenden Refresh genutzt habe. Da fällt der Vergleich deutlich einfacher aus. Und wie ich es bereits am Sonntag angeteasert hatte: Intels halbherzige Offenbarung mit den neuen Profilen für die Z790 Boards ist mir ebenfalls etwas sauer aufgestoßen. Auf meine explizite Frage an einen verantwortlichen Mitarbeiter für Motherboards eines großen Taiwanesischen Herstellers […] (read full article...)
 
@Igor Wallossek
Was ist den aus den Profilen der Hersteller geworden Intel hatte doch alle angewiesen bis spätestens Hete 31.05er die neuen Default Biose zu veröffentlichen?
 
Zuletzt bearbeitet :
die Frage nach dem Nutzen stelle ich mir da viel eher, mit Gaming bekommst die Flaggschiffe und knapp darunter gar nicht ausgelastet, da würde ich vielleicht noch die Optimierung der Single Core Leistung akzeptieren, sofern das tatsächlich bei einigen Games was bringt.
Wenn mir die Leistung von nem 7950 oder 14900 nicht reicht, weil ich z.B. damit arbeite oder Programme oder Anwendungen nutze, die solche CPUs an ihre Leistungsgrenze bringen, dann hilft auch OC nix, dann muss ich mir eben einen 7965WX oder w7-2495X kaufen, aber nicht eine Desktop und Gaming CPU 24/7 durch sämtlichen energetischen Schallmauern prüglen.
Diese Überlastung und Verkürzung der Lebensdauer, auch sämtlicher beteiligten Hardware wie Board und RAM, rechnet sich auch null, dann juckelst Du in 3 Jahren 1200€ Hardware runter, da kaufts Dir lieber ordentliche Workstation Hardware, das kostet dann 3500 für Board und CPU, dafür hält die auch 15 Jahre.
Ich stimme mit Dir absolut Null überein.

1. ein 7965WX oder ein W7-2495X ist nicht in jedem Szenario schneller als der 14900 bzw. 13900. Wenn die Software (bzw. das Lizenzmodell) z.B. auf 8/10 Kerne beschränken, dann zählt einfach Taktfrequenz und da ist der i9 nunmal deutlich besser aufgestellt. Und nur falls die Frage kommt: Ja, eine zusätzliche GPU (Nvidia GP100) werkelt mit.
2. Die Verkürzung der Lebensdauer durch thermische Überlastung ist gerade im Businessbereich völlig schnurz, da der i9 ja eigentlich ne Billig-CPU ist (verglichen mit Threadripper und Xeon).
3. 15 Jahre nutzt eh keiner eine Hardware, der damit und vor allem mit Rechenzeitverkürzung infolge OC Geld verdienen muss/will. Da wird in kurzen Abständen <4 Jahre erneuert und ggf. schon eher. Ich wechsel von 13900K auf 14900K weil mir die paar Prozente Singlecore-Performance das Geld wert sind. Bei 24/7 Rechenzeit bedeuten 5% schon 438h Rechenzeit. Das ist bares Geld!
4. Wenn OC 100W Mehrverbrauch bedeutet, dann sind das am Tag 2,4 kWh, was aufs Jahr gerechnet 876 kWh oder bei 50ct/kWh lächerliche 438€ sind. Die Mehrkosten machen sich durch die Rechenzeitersparnis x-fach wett.
 
Ich kann hier @anfreund nur zustimmen und ein Beispiel aus der Praxis nennen.

Kunde arbeitet mit Rhino3D und verschiedenen Plugins, um speziell an den Kunden angepasste Produkte berechnen zu lassen. Hier muss man sich ggf. Millimeter für Millimeter annähern. Rhino3D macht kaum von mehr als drei oder vier Threads gebrauch.

Man hat sich hier explizit für eine "Consumer" Plattform entschieden, weil diese die höchste Singlecore-Performance bringt.

Kurios an der Geschichte: Es standen ein Intel- sowie AMD-System zum Test zur Verfügung. Man kann von Rhino3D mehrere (aber scheinbar nicht besonders viele) Instanzen starten. Für sich alleine hat der 14900K das Rennen gemacht. Aber sobald auch die eCores verwendet werden mussten, hat das AMD-System noch einmal 10 % schneller gerechnet. 10% sind hier mehrere Stunden pro Woche.

Stromverbrauch, Anschaffungskosten. Peanuts, die in der Konzernbilanz untergehen.

Das war noch vor dem Intel-GAU und ich hatte den 14900K mit 253W/253W PL1/PL2 bzw. 307A konfiguriert.
 
Ich kann hier @anfreund nur zustimmen und ein Beispiel aus der Praxis nennen.

Kunde arbeitet mit Rhino3D und verschiedenen Plugins, um speziell an den Kunden angepasste Produkte berechnen zu lassen. Hier muss man sich ggf. Millimeter für Millimeter annähern. Rhino3D macht kaum von mehr als drei oder vier Threads gebrauch.

Man hat sich hier explizit für eine "Consumer" Plattform entschieden, weil diese die höchste Singlecore-Performance bringt.

Kurios an der Geschichte: Es standen ein Intel- sowie AMD-System zum Test zur Verfügung. Man kann von Rhino3D mehrere (aber scheinbar nicht besonders viele) Instanzen starten. Für sich alleine hat der 14900K das Rennen gemacht. Aber sobald auch die eCores verwendet werden mussten, hat das AMD-System noch einmal 10 % schneller gerechnet. 10% sind hier mehrere Stunden pro Woche.

Stromverbrauch, Anschaffungskosten. Peanuts, die in der Konzernbilanz untergehen.

Das war noch vor dem Intel-GAU und ich hatte den 14900K mit 253W/253W PL1/PL2 bzw. 307A konfiguriert.
Der Intel "GAU" war letztlich gar keiner, einfach aufgebauschter Mist, ich habe selbst nicht einen Fall erlebt, in meinem gesamten beruflichen Umfeld keiner, keiner im Privaten und hier im Forum kenne ich auch keinen den es betroffen hätte. Und wenn man nicht über die Max Spezis hinausschießt wie Mobby ans Gehackte, passiert da auch nix.
Da wurden CPUs deutlich außerhalb der Spezifikationen und ohne Sinn und Verstand betrieben, das ist alleine die Schuld der wenigen betroffenen OC User.
Innerhalb der Intel Spezis schmiert gar nix ab.
War ja letztes Jahr mit AM5 und dem Expo RAM nix anderes, nur da sind die gesamten CPUs abgefackelt wenns blöd lief.
 
Dieser 13980HX ist bei PL2:175W degradiert.
13980HX und 13900K sind der gleiche chip.
 
Dieser 13980HX ist bei PL2:175W degradiert.
13980HX und 13900K sind der gleiche chip.

Den verstehe ich nicht, EIN Asus Gaming Notebook mit einem runtergekürzten Mobile 13900k, ergo 13980HX, der RAM Probleme hat.
Wo ist da das generelle Problem?
Erstens kann das viele Ursachen haben, auch RAM Chip Fehler, Speichercontroller Fehler, Hitze usw, und zweitens liegt der HX bei PL2 157W, Base 55W, wenn der also PL2 auf 175 Watt läuft ist er Minimum 10% außerhalb der Specs.
Und trotzdem ist das kein generelles Problem, solche Fehler gabs schon immer, hatte mal ein Asus ROG Strix Scar Notebook, der war 8. Gen CPU basiert, der war beim RAM z.B. auch extrem pingelig, habe den damals von 16GB auf 32 hochgeschraubt, und hatte einen etwas höheren RAM Takt gewählt, und niedrigere Latenzen, das mochte der Mobile gar nicht, also hat er gezickt.
Nochmal, es gibt kein generelles Problem, solang man nicht aus den Specs rausgeht, oder eben massiv drüber gibt es NULL Problem, und genau das, nämlich das Betreiben außerhalb der Specs, andere Loadline, höhere PL2/PL3 als vorgesehen, höher Kernspannung ist Overclocking, und das ist nunmal kein Problem der CPU, sondern ein Fehler des Users.
Beim AM5 war's das EXPO, AMDs XMP, also quasi vorgegebenes RAM OC Profil, das die CPUs gebraten hat. Das finde ich persönlich schlimmer, denn diese Form des OC hat z.B. bei XMP keine Probleme gemacht, da hat sich tatsächlich AMD den Schuh anziehen müssen, wenn ich schon eine EXPO Profile und Standards neu erfinden und zulasse, dann sollten sie auch CPU seitig verkraftbar sein.
die 13./14. Gen sind nicht abgefackelt wenn man statt des regulären 5600MHz z.B. 6400 über XMP fahre, bei AM5 hat die CPU eben den höheren RAM Takt nicht so gut weggesteckt. Bei AM5 liegt die Specs bei 5200MHz , wenn ich da einen 6400er RAM reinkloppe und auf EXPO gehe laufe ich 20% OC und damit außerhalb der Specs.

Und da liegt das einzige Problem, die User glauben sie könnten beliebig drüber gehen, weil die Boards das ggf hergeben.
Wenn ich einen XMP mit 6200 bei Intel nehme sind das 15% mehr als die Specs vorgeben, 6400 sind 19%, wenn ich Expo mit 6400 fahre sind das bereits 23% drüber.
Und genau deshalb empfehle und verbaue ich bei z.B. 1700 nur 6200 wie den Klevv 6200 CL32, also lieber Max 15% mehr und viel bessere Latenzen, oder maximal 6400, denn mehr als 20% OC ist nunmal für den alltäglichen Gebrauch keine adäquate Lösung und führt irgendwann immer zu Problemen.
Und bei AM5 bin ich bei 6000 oder 6200 maximal.
Und im Notebook wird das alles automatisch schlimmer, alleine schon weil ich eine viel eingeschränktere Kühlung habe, und auch höherer RAM Takt ist OC und steigert die Aufnahme und damit die Wärme und verringert somit auch die Effizienz.
Und daher haben AMD und Intel absolut Recht, wenn sie sagen, das sind die Specs, Dein Problem resultiert aus dem Überschreiten der Specs, schön das Du ein Problem hast, mach's nicht zu unserem.
Da liegt das Problem bei den Boardherstellern, die den Betrieb weit außerhalb der offiziellen CPU Specs ermöglichen und der Verbraucher glaubt, wenn's das Mainboard zulässt, dann ist es wohl ok.
Irrglaube.
 
Programmierst du mir die Scopes? Und wer soll die Millionen von Datensätzen auswerten? Ganz so einfach ist das nicht
Naiv hätte ich einfach ein digitales PSU (ax1600i oder whatever) mit der Möglichkeit den Verbrauch zu messen, genommen. Damit wird natürlich nicht nur die CPU gemessen, aber all in all vermutlich eine günstige Möglichkeit eine interessante Perspektive zu ergänzen.
Zumindest sobald das Setup auf Plausibilität geprüft ist.😅
 
Oben Unten