Umfangreicher Workstation- und KI-Test mit Intels i9-13900K - Die Leistungs-Profile Baseline, Performance, Extreme und Insane

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.967
Bewertungspunkte
9.472
Punkte
1
Standort
Redaktion
Nachdem wir ja bereits am Montag Aris‘ Artikel über die Leistungsaufnahme des Core i9-13900K in Cinebench 23 veröffentlicht hatten, lege ich heute noch einmal mit einem größeren Programmumfang nach. Und ja, ich nutze bewusst ein Z690-Board, weil ich es auch zum Launch von Raptor Lake S und dem darauf folgenden Refresh genutzt habe. Da fällt der Vergleich deutlich einfacher aus. Und wie ich es bereits am Sonntag angeteasert hatte: Intels halbherzige Offenbarung mit den neuen Profilen für die Z790 Boards ist mir ebenfalls etwas sauer aufgestoßen. Auf meine explizite Frage an einen verantwortlichen Mitarbeiter für Motherboards eines großen Taiwanesischen Herstellers […] (read full article...)
 
Um mal direkt Streit vorzubeugen, die Leaks zu 50xx sind Kindergarten, da hat es lediglich wohl Infos zum Kühlerdesign geleakt, von 250Watt-600watt, was aber erstmal gar nix zur Einstufung der Karten sagt, denn schlauerweise soll es Hersteller geben die Ihre Kühler stärker auslegen, als es die eigentliche GPU bräuchte, dazu kommen aber auch noch die bis zu 32GB DDR7 VRam die etwas hitziger ausfallen könnten, und die man logischerweise im Thermal Design einkalkulieren muss. Und da bei den ersten Tests dann auch direkt wieder das OC ausgereizt werden wird, sollte die Kühlung etwas größer dimensioniert sein.
Also sagen ein 600Watt fähiger Kühler erstmal nix über den realen Verbrauch der Karte aus.
Ich denke eher, das Nvidia auch bei der 5090 den Kurs nicht verlassen wird und die Effizienz, also Relation von Leistung zu Verbrauch nochmals gesteigert werden wird und sie um 400 Watt bei ca 15% Leistungszuwachs im Vergleich zur 4090 rangieren könnte, aber ACHTUNG, nur eine Vermutung meinerseits, ohne Anspruch auf irgendwelche Fakten.
Wird sich eh bald zeigen, dann wissen wir mehr, alle anderen Aussagen sind nichts als Mutmaßungen.
Und selbst wenn eine 5090 bei 500 Watt läge, sagt das immer noch nix zur Effizienz aus, denn wenn sie gleichzeitig 20% mehr Leistung brächte als eine 4090, wäre das zwar ein nominaler Anstieg des Verbrauches, aber trotzdem eine deutlich gesteigerte Effizienz.
ACHTUNG @Igor Wallossek ich bemühe wieder einen Auto Vergleich, auch wenn ich dafür wieder Backpfeifen kassiere. Wenn ich einen 2 Liter Diesel mit 200 PS 6 Litern bewegen kann, und der Nachbar einen 3 Liter Diesel mit 300PS bei 8 Litern bewegt, dann braucht der zwar mehr, bringt aber auch im Verhältnis mehr Leistung pro Liter, ist also der effizientere Motor
Da gebe ich Dir prinzipiell recht...aber tendenziell ging die Kurve eher immer nach oben. Und wie ich es oben schon beschrieben habe, regelt der Markt das letztendlich von selbst. Und zum Autovergleich. Mir reichen die 200 PS dicke aber wenn jemand mit den 300 PS glücklich wird, dann halte ich es wie der Alte Fritz und freue mich mit ihm. :D
 
Kann man so gar nicht sehen, weil es immer auch Leistungszuwachs gab, nimm mal die 2080, die mit Rund 250 Watt immer noch 10% schwächer war als die 3070 ohne ti , die 3070 hat aber den gleichen Verbrauch gehabt wie die vorher 2080 und etwas mehr Leistung, also wurde hier schon fast 10% Effizienz gesteigert, dann nehmen wir leistungstechnisch vergleichbare 4060ti die etwa auf Niveau einer 3070 oder minimal darüber liegt, die braucht nur noch 160Watt, also 60-80 Watt weniger als eine 3070 oder 2080, und gleichzeitig liegt sie in der Leistung 10-15% über einer 2080, das sind also 30% weniger Verbrauch bei gleichzeitig 10-15% mehr Leistung.
Es gab also immer Effizienzsteigerungen. Eine 3080 war ja quasi ein Modell das es vorher nicht gab, zumindest in der Leistung und daher nicht vergleichbar ist.
Wenn man die Faktoren Leistung und Aufnahme in Relation setzt, dann war der Trend immer schon eine Effienzsteigerung, dabei muss man aber die Modellverschiebungen mit einbeziehen. Wer eine 2080 hatte und jetzt eine neue Karte braucht, aber keine große Mehrleistung benötigt nimmt heute eine 4060ti, hat etwas mehr Leistung und viel weniger Verbrauch.
Und selbst wenn ich auf der gleichen Endziffer bleibe, 2080,3080 und 4080 hatte ich immer eine Effizienzsteigerung, zwischen 2080 und 4080 liegen rund 150-160% mehr Leistung bei nur 35% mehr Aufnahme.
Also an Effizienzzuwachs hat es nicht gemangelt in den letzten Jahren, aber die Leistung ist massiv gestiegen
 
Zuletzt bearbeitet :
Normung verhindert auch immer zu einem gewissen Teil Innovation. Und in diesem Fall wegen irgendwelcher Kühllösungen Vorgaben zu machen halte ich - vorsichtig formuliert - für "nicht sinnvoll".
 
Normung verhindert auch immer zu einem gewissen Teil Innovation. Und in diesem Fall wegen irgendwelcher Kühllösungen Vorgaben zu machen halte ich - vorsichtig formuliert - für "nicht sinnvoll".
Ja natürlich hast Du da absolut Recht, aber wenn ich bei einem PCB einer Grafikkarte die GPU, die umliegenden RAMs zumindest an einer fixen Stelle platzieren würde und die Bohrungen in gleichem Abstand hätte, dann würde das rein vom der Platzierung eine Innovation nicht im Wege stehen, ich könnte viel mehr Zeit und Aufwand in den Kühler selbst investieren und den verbessern, statt zig verschiedene Mountig Varianten und damit verschiedene Wirkungsgrade in Kauf nehmen zu müssen.
 
Wie DB schon sagte, je leistungsfähiger desto effizienter, auch bei gesteigertem nominalen Mehrverbrauch.
Die 4090 lasse ich jetzt nur noch mit framecap oder PL laufen, ist ja auch entsprechend flüsterleise. Wozu brauche ich 170 fps in Horizon mit DLSS und FG, wenn der Monitor nur 144Hz kann? Da stellt sich die Frage, wann man eine 5090 wirklich "braucht".
Aber die vielen miesen Konsolenportierungen werden den Bedarf sicher beschleunigen. :)
 
Wie DB schon sagte, je leistungsfähiger desto effizienter, auch bei gesteigertem nominalen Mehrverbrauch.
Die 4090 lasse ich jetzt nur noch mit framecap oder PL laufen, ist ja auch entsprechend flüsterleise. Wozu brauche ich 170 fps in Horizon mit DLSS und FG, wenn der Monitor nur 144Hz kann? Da stellt sich die Frage, wann man eine 5090 wirklich "braucht".
Aber die vielen miesen Konsolenportierungen werden den Bedarf sicher beschleunigen. :)
Ja, würdest Du ne 4090 auf die Leistung einer 2080 Runterdrosseln, wärst bei höchsten 180 Watt.
Ja sowas wie RDR1, mir schwant schreckliches, und ich will's trotzdem auf PC haben, aber kommt ja bald.
 
Zuletzt bearbeitet :
Kann man so gar nicht sehen, weil es immer auch Leistungszuwachs gab, nimm mal die 2080, die mit Rund 250 Watt immer noch 10% schwächer war als die 3070 ohne ti , die 3070 hat aber den gleichen Verbrauch gehabt wie die vorher 2080 und etwas mehr Leistung, also wurde hier schon fast 10% Effizienz gesteigert, dann nehmen wir leistungstechnisch vergleichbare 4060ti die etwa auf Niveau einer 3070 oder minimal darüber liegt, die braucht nur noch 160Watt, also 60-80 Watt weniger als eine 3070 oder 2080, und gleichzeitig liegt sie in der Leistung 10-15% über einer 2080, das sind also 30% weniger Verbrauch bei gleichzeitig 10-15% mehr Leistung.
Es gab also immer Effizienzsteigerungen. Eine 3080 war ja quasi ein Modell das es vorher nicht gab, zumindest in der Leistung und daher nicht vergleichbar ist.
Wenn man die Faktoren Leistung und Aufnahme in Relation setzt, dann war der Trend immer schon eine Effienzsteigerung, dabei muss man aber die Modellverschiebungen mit einbeziehen. Wer eine 2080 hatte und jetzt eine neue Karte braucht, aber keine große Mehrleistung benötigt nimmt heute eine 4060ti, hat etwas mehr Leistung und viel weniger Verbrauch.
Und selbst wenn ich auf der gleichen Endziffer bleibe, 2080,3080 und 4080 hatte ich immer eine Effizienzsteigerung, zwischen 2080 und 4080 liegen rund 150-160% mehr Leistung bei nur 35% mehr Aufnahme.
Also an Effizienzzuwachs hat es nicht gemangelt in den letzten Jahren, aber die Leistung ist massiv gestiegen
Äpfel mit Birnen? Wenn dann bitte eine 2080 mit einer 3080 vergleichen. Das da die Effizienz gleichzeitig auch steigt ist klar aber eben gleiche Leistungsklasse. Der FPS-Gewinn liegt von bei der nächsten Generation immer höher (i.d.R. 20-30%). Die 3090 Ti war schon brachial. Im Grunde eine aufgebohrte 3090 (FPS durch Hz) Die 4090 hat dann nochmals zugelegt (FPS-Zuwachs durch Transistorengröße + Hz grenzwertig) und das erwarte ich ehrlich gesagt auch bei der 5090. Effizienzsteigerung durch kleinere Transistoren (5nm --> 3nm) bei gleichzeitig mehr Hz. Die Tendenz geht in Richtung größere Chips bei gleichzeitig kleineren Transistoren. Das war immer so. Eigentlich Binsenweisheiten.
 
3080 gleiche Leistungsklasse wie die 2080!? Seit wann das denn, 2080=3070=4060ti, das ist eine Leistungsklasse, die 80 ist nur eine Modellbezeichnung.
Wenn ich 2080-3080-4080 vergleiche wird es ja noch viel krasse im Effizienzgewinn. Eine 3080 liegt 60% über der Leistung einer 2080 bei nur knapp 40% mehr Aufnahme, eine 4080 liegt 150% über der 2080, bei nur 40% mehr Aufnahme, selbst die 3080 übertrifft die 4080 und gute 70% bei gleicher Leistung.
Also ein Plus von mindestens 60% an Leistung bei der 3080 und mehr als eine Verdopplung,, knapp 150% Leistungszuwachs bei der 4080 im Vergleich zur 2080 siehst Du als gleiche Leistungsklasse!?
Nein, es gibt bei jedem neuen Basis eine Leistungsverschiebung, was heute 4080 ist wird in Sachen Leistung morgen von der 5070 abgelöst.
Beim Autorennen fährst nicht automatisch in der 2 Liter Klasse mit, wenn Du die Kiste als 2 Liter bezeichnest, aber real einen 3 Liter unter der Haube hast.
Leistungsklasse bedeutet per Definition, ein begrenztes Feld mit eng zusammenliegender Leistung.
 
@Topic
Wenn man sich mal überlegt, sind doch keine Fälle mehr bekannt geworden, nachdem es zu Beginn vereinzelte unbestätigte Meldungen auf Reddit gegeben hat.
Und hätte PCGH nicht öffentlich von Degeneration fabuliert wäre es niemals zu so einer Verunsicherung der User gekommen, zu allem Überfluss wurden dann auch noch Nebelkerzen gezündet in Form dieser Umfrage. /:

Für mich ist neben den Mainboard Herstellern ganz klar pcgh als Hauptschuldiger mit an zu sehen!
 
3080 gleiche Leistungsklasse wie die 2080!? Seit wann das denn, 2080=3070=4060ti, das ist eine Leistungsklasse, die 80 ist nur eine Modellbezeichnung.
Wenn ich 2080-3080-4080 vergleiche wird es ja noch viel krasse im Effizienzgewinn. Eine 3080 liegt 60% über der Leistung einer 2080 bei nur knapp 40% mehr Aufnahme, eine 4080 liegt 150% über der 2080, bei nur 40% mehr Aufnahme, selbst die 3080 übertrifft die 4080 und gute 70% bei gleicher Leistung.
Also ein Plus von mindestens 60% an Leistung bei der 3080 und mehr als eine Verdopplung,, knapp 150% Leistungszuwachs bei der 4080 im Vergleich zur 2080 siehst Du als gleiche Leistungsklasse!?
Nein, es gibt bei jedem neuen Basis eine Leistungsverschiebung, was heute 4080 ist wird in Sachen Leistung morgen von der 5070 abgelöst.
Beim Autorennen fährst nicht automatisch in der 2 Liter Klasse mit, wenn Du die Kiste als 2 Liter bezeichnest, aber real einen 3 Liter unter der Haube hast.
Leistungsklasse bedeutet per Definition, ein begrenztes Feld mit eng zusammenliegender Leistung.
Dann lass uns besser von "Modellen" reden. Für mich war die Sache klar. Der Vergleich eines 7er BMW von 1990 mit einem 3er von heute empfände ich jetzt auch unpassend. Man will ja die "Modelle" in ihrer leistungsklasse vergleichen um daran eine Entwicklung festzumachen.
 
Ja, zurück zum Thema. :)
Vorgestern und gestern einen 7950X gebaut und getestet, aber nicht für mich. Ist eine famose CPU für's Arbeiten, wenn man sich an die ständigen Idle-Taktsprünge gewöhnt hat und mit CO und Leistungslimit die Temps etwas reduziert. Für's 4K-Gaming auch gut geeignet, da spielt die CPU eine geringere Rolle. Ist dann eher Geschmacksache, ob 13700K-14900K (mit anständigem PL) oder Ryzen 7000 gewählt wird. Die krückigen, halbherzigen X3D mit entweder geringer MC-Leistung (7800X3D) oder Problemen bei der Threadzuweisung (7950X3D) sind jedenfalls nichts für mich.
 
Hab die WLP ohne X-Apply glattgestrichen aufgetragen, sorry. :) Kühlt aber trotzdem sehr gut der Thermalright Kühler. :)
 
Ja, zurück zum Thema. :)
Vorgestern und gestern einen 7950X gebaut und getestet, aber nicht für mich. Ist eine famose CPU für's Arbeiten, wenn man sich an die ständigen Idle-Taktsprünge gewöhnt hat und mit CO und Leistungslimit die Temps etwas reduziert. Für's 4K-Gaming auch gut geeignet, da spielt die CPU eine geringere Rolle. Ist dann eher Geschmacksache, ob 13700K-14900K (mit anständigem PL) oder Ryzen 7000 gewählt wird. Die krückigen, halbherzigen X3D mit entweder geringer MC-Leistung (7800X3D) oder Problemen bei der Threadzuweisung (7950X3D) sind jedenfalls nichts für mich.
Da gebe ich Dir absolut Recht, die Taktsprünge und die hohen Idle Lasten nerven mich tierisch, der Threadmanager ist beim 7950X3D ebenso mist.
Hab neulich für nen Kollegen das System gewechselt, der hat seinen 7950X3D nach 2 Wochen entnervt abegegeben und ist mit seiner 4080 auf ein Z690 Hero und einen 14700K mit 6200er KLEVV CL32 umgezogen, läuft smoother, kühler und bringt exakt die gleiche Gamin Leistung in 4K was keine Überraschung war, weil das Limit eh bei der 4080 liegt.
Der 7950X3D ist für mich sowas wie ein V8 Biturbo der nur 10 Liter braucht bei 600PS, aber Eckige Räder hat
 
Zuletzt bearbeitet :
Hab die WLP ohne X-Apply glattgestrichen aufgetragen, sorry. :) Kühlt aber trotzdem sehr gut der Thermalright Kühler. :)
kann gar nicht sein :eek: auch Du, mein Sohn Tronado .....wirst es lieben lernen, Du musstest ja wieder die "Schießscharten" zukleben oder ein so nen Schutz drüberstülpen, hättest mit X-Apply nicht gebraucht
 
Ich denke Intel hat schon registriert was unser Freund Sven von pcgh so von sich gibt und seine Motive sind, trotzdem hab ich mich nicht lumpen lassen und mal ein "Bestof" seiner Publikationen an Intel weitergeleitet. Hatte die Umfrage nur als Gag hier erwähnt, Zeitpunkt, Abwicklung und auch das Ergebnis fand ich einfach lustig. Sachlich gesehen hat das natürlich keinen Mehrwert.
 
Oben Unten