Bench Cine Bench 2024

@DigitalBlizzard

Bist du sicher, was die Rechenfehler angeht, ich habe da noch Haswell in Erinnerung.
Dort wurde es aber nur bei den Xeons genutzt, der Takt wurde so lange erhöht bis Rechenfehler passieren.
Dann wird die Berrechnung nochmals durchgeführt mit dem letzten Stabilen Cycle. ;)


Hier mal meine Workstation Bedienungen:

27,2°C UmgebungsTemperatur, Youtube Musik Video läuft ohne Aussetzer im Ton, HWinfo64 Sampling Intervall: 1001 ms:

CineBench2024_27,2C_HwInfo.jpg
 
@DigitalBlizzard

Bist du sicher, was die Rechenfehler angeht, ich habe da noch Haswell in Erinnerung.
Dort wurde es aber nur bei den Xeons genutzt, der Takt wurde so lange erhöht bis Rechenfehler passieren.
Dann wird die Berrechnung nochmals durchgeführt mit dem letzten Stabilen Cycle. ;)


Hier mal meine Workstation Bedienungen:

27,2°C UmgebungsTemperatur, Youtube Musik Video läuft ohne Aussetzer im Ton, HWinfo64 Sampling Intervall: 1001 ms:

Anhang anzeigen 33369
Ja, ganz sicher, gab da kürzlich eine riesige Untersuchung dazu, Rechenzentrumsbetreibern sind nämlich gewisse Ungereimtheiten die Leistung und Zuverlässigkeit betreffend aufgefallen, die nicht zur nominalen Systemleistung passten, und da ist die massive Zunahme von "Verrechnungen" bei modernen CPUs aufgefallen, je kleiner die Fertigungsgröße, desto häufiger das Problem, und je wärmer sie wurden desto mehr wurde das Problem verstärkt.

 
Da muss ich dich leider enttäuschen, Fehler sind Menschlich ganz klar, aber eine Prüfsumme kann keiner erraten. ;)

Meinst du evt. die "Silent Data Corruption" im Stromlosen Zustand ?

= https://www.it-administrator.de/article-111409
 
Zuletzt bearbeitet :
Da muss ich dich leider enttäuschen, Fehler sind Menschlich ganz klar, aber eine Prüfsumme kann keiner erraten. ;)

Meinst du evt. die "Silent Data Corruption" im Stromlosen Zustand ?
Nein, wir reden von fehlberechnungen, einfach Schaltfehler.
CPUs werden nicht nur schneller und sparsamer, sondern auch immer unzuverlässiger. Zu diesem Ergebnis kommen Statistiken aus den großen Rechenzentren Googles und Facebooks, in denen riesige Mengen an Prozessorkernen belastbare Daten hervorbringen.
"Unser Abenteuer begann, als aufmerksame Teams zunehmend beklagten, dass wiederholt Daten von den Maschinen korrumpiert wurden", berichtete Google-Entwickler Peter Hochschild nun auf der Konferenz Hot Topics in Operating Systems (HotOS). Hellhörig wurde man vor allem, weil auf den fraglichen Systemen Applikationen liefen, bei denen der Code als besonders stabil und fehlerbereinigt angesehen werden konnte. Fehlermeldungen kamen hier von verschiedenen Seiten und mit herkömmlicher Diagnostik war auch kein Bug zu finden.
Tiefergehende Untersuchungen hätten dann zu der Erkenntnis geführt, dass das Problem eher in der Hardware zu finden sein dürfte. Und ganz abwegig war dies ohnehin nicht, da im Grundsatz bekannt ist, dass CPUs auch nicht fehlerfrei arbeiten. In der Vergangenheit gab es immer wieder Berichte über spektakuläre Bugs in den Architekturen, darüber hinaus kann es aber schlicht auch zu fehlerhaften Berechnungen kommen, wenn sich eine Schaltung aufgrund von ungünstigen Umweltbedingungen zufällig etwas anders verhält. Ein gewisser Basis-Satz an falschen Berechnungen wird daher einkalkuliert und in besonders kritischen Applikationen durch zusätzliche Prüfungen auch abgefangen.
Die nun entdeckten Probleme passten aber nicht in dieses Bild, da sie nicht relativ gleichmäßig verteilt vorkamen, wie aus einem Bericht von The Register hervorgeht. Für Rätselraten sorgt die Tatsache, dass es häufiger zu falschen Ergebnissen kommt, als aufgrund der Hochrechnungen zu erwarten wäre - und die Bugs trotzdem höchst sporadisch, teils erst lange nach der Installation und nicht in bestimmten Baugruppen, sondern eher in individuellen Cores vorkommen.

Die Google-Entwickler, die nach den Ursachen des Problems forschten, fanden schließlich bei ihren Kollegen von Facebook ganz ähnliche Erfahrungen. Letztlich kam man zu dem Schluss, dass es sich um Bugs handelt, die aus den immer kleiner und komplexer werdenden Designs resultieren und die sich mit den herkömmlichen Prüfungen im Fertigungsprozess gar nicht mehr entdecken lassen.

Das macht es letztlich schwierig, Gegenmaßnahmen zu entwickeln. Und solche Fehler in den Berechnungen können gravierende Probleme verursachen - nicht einfach nur, wenn Daten ausgewertet werden müssen. Wenn sie beispielsweise während der Verschlüsselung auftreten, können Informationen unwiederbringlich verloren gehen. Daher wollen die Unternehmen nun weitergehende Forschung in das Problemfeld stecken.

Mittlerweile weiß man, das es an den extrem kleinen Designs liegt, die extrem anfällig für Kriechströme sind und aufgrund der extrem kleinen Bauweise macht die Thermische Materialausdehnung ein Problem, so daß es zum Teil zu temporärer Unterbrechung gewisser Leiterbahnen kommen kann usw.

Alles Probleme die schon lange klar sind und die bei kleiner werdenden Strukturgrößen absehbar waren, aber von denen man dachte, man würde sie nicht bekommen.
Lustigerweise hat man ebenso herausgefunden, dass diese Probleme wieder seltener auftreten, sobald man die Temperaturen auf einem möglichst gleichbleibenden Level halten kann, schnelle Temp Anstiege und Schwankungen hingehen vergrößern das Problem wieder.
 
Die Großen Daten Schubser wissen schon lange was los ist.
Warum wird dann 12 Jahre später immer noch darauf verzichtet ?

Client Systeme ohne ECC, für Fette Server....

Never ending Story.
 
Heute sind es 0,2°C weniger Umgebungs Temperatur = 27,0°C

Ich war so frei und habe mal alle Tests laufen lassen, es gibt ein kleines ➕
Ohne HWinfo64 oder irgendetwas im Hintergrund. ;)

CB24_Singel-Window_Stock.jpg
 
Heute sind es 0,2°C weniger Umgebungs Temperatur = 27,0°C

Ich war so frei und habe mal alle Tests laufen lassen, es gibt ein kleines ➕
Ohne HWinfo64 oder irgendetwas im Hintergrund. ;)

Anhang anzeigen 33379
Ja Hintergrundprogramme und Wärme waren noch nie die Freunde von Benchmarks 👀

Aber mal im Ernst, bezogen auf CB24, wie rechtfertigt AMD die Preise!?
Der 5950x kostet heute noch knapp 100€ mehr, oder 50% mehr als ein 13600KF, hat nominal 50% mehr Threads, schafft aber im Multicore noch nicht mal 10% mehr als ein 13600kf bei gleicher Wattage von 142 Watt.
Im Single sogar mehr als 10% weniger.
Klar liegen 2 Jahre zwischen den Modellen, aber der Preis ist heute trotzdem mit nichts mehr zu rechtfertigen.

Bei der 6950xt ist es ähnlich, da will man heute auch noch 650-1000€ für haben, pumpt über 300 Watt durch um am Ende von einer Nvidia Mittelklasse 4070 Super mit knapp 200 Watt um 70% deklassiert zu werden in CB24.

Und nicht falsch verstehen, das ist kein Angriff auf Irgendwen, oder kein Fanboy gelaber oder sonstwas, habe ja selbst auch noch ne 6800 und ne 5800x3d in Nutzung, und ich bin selbst weit entfernt vom Fanboy sein.
Ich bin maximal ein Effizienz-Fanboy, und solange Preis, Leistung und Verbrauch in einer guten Relation zueinander stehen, liegt da meine Präferenz.
Aber es zeigt halt leider, das AMD seine völlig Absurde Preispolitik der letzten Jahre, im Prinzip ab den 3000er Ryzen, komplett überzieht.
Da kann auch keiner mehr von überteuerten Intel oder überteuerten Nvidias reden, der Titel gebührt in beiden Kategorien mittlerweile AMD.
Selbst Nvidia zieht mit der 6. stärksten Karte im Portfolio die um 600 kostet quasi bereits an allen AMD Karten bis auf zwei Stück vorbei, und das in Leistung und in der Effizienz extrem.
Spätestens bei der 4070tis und 4080 hat AMD nichts mehr entgegenzusetzen, aber da liegen sie mittlerweile im Preis angepasst.
 
Man merkt aber schon dass du deinen 13600KF immer wieder vergleichen musst, als ob du doch noch zweifelst. :)
Cinebench ist nicht repräsentativ für die real world performance. Sonst wäre meine CPU in MC-Anwendungen ja immer schneller als ein 7950X, ist sie aber nun mal nicht. Dein 13600KF ist eine vernünftige Wahl mit guter Spieleperfomance und anständiger MC-Performance, für Effizienz in MC-Anwendungen kann man aber sehr gut besser AMD nehmen. Dass CPUs älterer Generationen kaum im Preis sinken ist bekannt. Das ist der "Ersatzteile sind teuer" Effekt. Wer kauft heute noch einen 10900K für über 300€, es sei denn seine CPU ist defekt und ein neues System zu teuer.
Ich kenne auch ein, zwei Leute, die sich ohne Not noch einen 5950X gekauft haben, damit die Balken gegen einen 7900X nicht so kurz ausschauen.
 
Der 5950x kostet heute noch knapp 100€ mehr, oder 50% mehr als ein 13600KF, hat nominal 50% mehr Threads, schafft aber im Multicore noch nicht mal 10% mehr als ein 13600kf bei gleicher Wattage von 142 Watt.
Im Single sogar mehr als 10% weniger.
Klar liegen 2 Jahre zwischen den Modellen, aber der Preis ist heute trotzdem mit nichts mehr zu rechtfertigen.

Bei der 6950xt ist es ähnlich, da will man heute auch noch 650-1000€ für haben, pumpt über 300 Watt durch um am Ende von einer Nvidia Mittelklasse 4070 Super mit knapp 200 Watt um 70% deklassiert zu werden in CB24.
Wie meinst du das mit 142W ? Das ist der Gesamt Verbrauch vom SoC (PPT), die CPU braucht nur 116W während des CB24 Lauf.
Ich glaube genau da liegt der Wurm, ihr vergleich unterschiedliche Watt Zahlen.

Die 6950XT macht HDR10+ bei mir, das bedeutet sehr viel mehr Rechenaufwand als Nvidia es jemals betreiben würde. ;)
Die ist leider unverkäuflich. ;)
 
Deine gesamte CPU Leistungsaufnahme betrug beim Test ca 145 Watt, PPT 140, was genau dem normalen Verbrauch einer 5950x entspricht.
Was genau dem Entspricht, was der 13600kf saugt, in meinem Fall waren es 147Watt.

CPU gesamt ist bei AMD und Intel vergleichbar, AMD gibt eine TPD an, die ist quasi der realen PPT geteilt durch 1,35 geschuldet.

Die CPU nimmt ergo real gesamt 141-145 Watt auf, AMD verwischt das gerne ein wenig mit TPD und PPT.

Wir reden aber in beiden Fällen ,Intel und AMD, von dem realen Verbrauch unter der jeweiligen Last.
 
Zuletzt bearbeitet :
Deine gesamte CPU Leistungsaufnahme betrug beim Test ca 145 Watt, PPT 140, was genau dem normalen Verbrauch einer 5950x entspricht.
Was genau dem Entspricht, was der 13600kf saugt, in meinem Fall waren es 147Watt.

CPU gesamt ist bei AMD und Intel vergleichbar, AMD gibt eine TPD an, die ist quasi der realen PPT geteilt durch 1,35 geschuldet.

Die CPU nimmt ergo real gesamt 141-145 Watt auf, AMD verwischt das gerne ein wenig mit TPD und PPT.

Wir reden aber in beiden Fällen ,Intel und AMD, von dem realen Verbrauch unter der jeweiligen Last.
Ok, dann bin ich hier raus.
Die PPT sind bei den Intel 230W, so viel kann ich dir schon mal sicher sagen. davon brauchen die Kerne alleine 140W bei einem Intel.
Also bitte etwas mehr Differenzierung und nicht immer alles in einen Topf schmeißen!
 
Ok, dann bin ich hier raus.
Die PPT sind bei den Intel 230W, so viel kann ich dir schon mal sicher sagen. davon brauchen die Kerne alleine 140W bei einem Intel.
Also bitte etwas mehr Differenzierung und nicht immer alles in einen Topf schmeißen!
Nein, Bei Intel ist die TPD 125 Watt auch PL1, 181 Watt PL2 und 241 Watt PL3.
Das sind die Leistungsgrenzen, alles dazwischen ist von Takt und Einstellung abhängig
PPT gibt's bei Intel nicht, das ist eine AMD Erfindung.BOINC_Asteroids_CPU&GPU_25ProzentCPU.jpgHWIAfterAllTests.jpg
 
Oben Unten