Intels interne Performance Projektion für Raptor Lake S Refresh und Arrow Lake S - So schnell könnten CPU und iGP werden | Exklusiv

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.831
Bewertungspunkte
8.878
Punkte
1
Standort
Redaktion
Der Raptor-Lake-Refresh wird noch dieses Jahr als 14. CPU-Generation für den Desktop erwartet. Doch auch der echte Nachfolger, Arrow Lake-S für den Desktop, materialisiert sich zusammen mit der neuen 800er Chipsatzserie immer mehr, was auch mal wieder einen neuen Prozessorsockel mit sich bringt, zu dem ich in Kürze die genauen Details einschließlich der Zeichnungen und (read full article...)
 
Wie steht es eigentlich mit den Gerüchten, dass sich Intel ab Arrow Lake wieder von HT/SMT verabschieden möchte?

Damals verschwand HT ja auch bei Wechsel von Pentium 4 auf Core und wurde danach aber wiederbelebt. Natürlich gibt es ja immer mehr Sicherheitsbedenken was HT/SMT angeht und manchne/wenige Spiele laufen ja sogar besser wenn dies Abgeschaltet ist.

Laut https://www.phoronix.com/review/amd-epyc-9754-smt
Meanwhile with Ampere Altra Max and AmpereOne there is no SMT and it's likely Intel's upcoming Sierra Forest will also lack SMT (Hyper Threading) given it's an E-core-only design.
Betrifft das nur die E-Core only CPUs, nicht alle CPUs bzw die Hybriden.
 
Bin da jedenfalls gespannt. Habe gestern ein Video gesehen, wo behautet wurde, dass es auch die Hybriden betrifft. Und laut diversen Videos sollen ja Spiele von abgeschalteten HT profitieren... Also probiert, kam aber nicht zum Testen, da Windows und diverse Applikationen dies gar nicht mochten.
 
Edit: E-Cores können kein AVX2 ;)
Dafür das die kein AVX2 können sind die bei CB23 aber gut ausgelastet. :'D

Ich hab mir nie die Mühe gemacht AVX-Offsets zu definieren, da die All-Core AVX Lastszenarios in meinem Realbetrieb des Rechners nicht existent sind. Aber ich meine da verschiedene AVX Offsets gesehn zu haben, ja.

Außer Blender (welches man viel sinnvoller die GPU rendern lässt, meine 3080 braucht vllt 10% der Zeit die meine CPU braucht) wüsste ich ausm Hut kein Programm was das nutzt. Evtl video encoder wie Handbake?
Bin da jedenfalls gespannt. Habe gestern ein Video gesehen, wo behautet wurde, dass es auch die Hybriden betrifft. Und laut diversen Videos sollen ja Spiele von abgeschalteten HT profitieren... Also probiert, kam aber nicht zum Testen, da Windows und diverse Applikationen dies gar nicht mochten.
Die ehrliche Frage ist: braucht man in Zeiten in denen man die user mit E-Cores zuballert bis der Arzt kommt überhaupt noch HT?
Ist es nicht sinnvoller einen Thread lieber auf einem physischen core auszuführen?
 
-delete me please-
 
Bin da jedenfalls gespannt. Habe gestern ein Video gesehen, wo behautet wurde, dass es auch die Hybriden betrifft. Und laut diversen Videos sollen ja Spiele von abgeschalteten HT profitieren... Also probiert, kam aber nicht zum Testen, da Windows und diverse Applikationen dies gar nicht mochten.
Nutzt du Windows 11 ?
Da sollte der neue Task Sheduler schon laufen, dieser Regelt die Last zwischen E und P Cores.
Also gut Möglich das sie bei CB23 auch genutzt werden, aber nicht für AVX2 und ohne SMT. ;)

Edit: Soviel zur Hardware, der Soft Code Mix ist dann was anderes: https://abload.de/img/disasm_blender278btor1p.jpg
 
Zuletzt bearbeitet :
Dafür das die kein AVX2 können sind die bei CB23 aber gut ausgelastet. :'D

Ich hab mir nie die Mühe gemacht AVX-Offsets zu definieren, da die All-Core AVX Lastszenarios in meinem Realbetrieb des Rechners nicht existent sind. Aber ich meine da verschiedene AVX Offsets gesehn zu haben, ja.

Außer Blender (welches man viel sinnvoller die GPU rendern lässt, meine 3080 braucht vllt 10% der Zeit die meine CPU braucht) wüsste ich ausm Hut kein Programm was das nutzt. Evtl video encoder wie Handbake?

Die ehrliche Frage ist: braucht man in Zeiten in denen man die user mit E-Cores zuballert bis der Arzt kommt überhaupt noch HT?
Ist es nicht sinnvoller einen Thread lieber auf einem physischen core auszuführen?
In der Musikproduktion mit 'Echtzeitverarbeitung' soll es manchmal sinnvoll sein HT zu deaktivieren um die Latenzen zu verbessern
 
@8j0ern Jep nutze Win11 und es war Merkwürdig. HT im Bios aus, Windows wurde sehr laggy, wieder an und alles war wieder super...

@Ifalna Ich denke auch, je mehr E-Cores vorhanden sind, desto weniger wird HT eine Rolle spielen.

Nun soll ja Intel AVX10 bringen und mit AVX10.2 sollen auch die E-Cores dies beherrschen. Dann fängt es an richtig interessant zu werden.

Klingt jetzt vielleicht blöd, aber Verbrauch/Leistung/Preis mal ganz ausgeblendet, finde ich die Entwicklung bei Intel im Moment spannender als bei AMD.

AMD: Chiplets sind schon normale geworden, der 3D Cache scheint sich auch zu bewähren und etwas wirklich Neues, Innovatives ist nicht in Sicht.

Spannend und Innovative möchte ich hier ganz klar nicht mit Erfolgreich gleich setzen. Für mich ist es jegliche Abweichung vom Bewerten um vielleicht einen grössen Schritt nach vorne zu machen, als nur das Alte weiter zu pflegen. Kann also auch ganz gut sein, dass Intel mit ihrem Versuch voll gegen die Wand fährt, es aber zu versuchen bleibt Spannend.
 
Spannend und Innovative möchte ich hier ganz klar nicht mit Erfolgreich gleich setzen. Für mich ist es jegliche Abweichung vom Bewerten um vielleicht einen grössen Schritt nach vorne zu machen, als nur das Alte weiter zu pflegen. Kann also auch ganz gut sein, dass Intel mit ihrem Versuch voll gegen die Wand fährt, es aber zu versuchen bleibt Spannend.
Noja so ist das halt mit Innovation.

Ob es letztenendes so gut wird wie man sich das vorstellt/wünscht, sieht man erst wenn man sich die Mühe macht, Risiken eingeht und das Konzept in die Praxis bringt.

Ich denke die CPU Hersteller müssen auch innovativ sein um die Rechenleistung weiterzuentwickeln, denn rohes "moar cores" und "moar MHz" befindet sich jetzt schon jenseits dessen was für normale consumer software relevant ist. Ich mein 6GHz beim 14900K ist dann schon eine Hausnummer nahe dem Ende der Straße. :'D
 
Ich fand auch die Entwicklung von Bulldozer sehr interessant und spannend, das Resultat kennen wir ja alle...
Zu wenig Unterstützung bei Single Anwendungen,zu viel Manipulation wie z.b. in Blender wo die Kerne nur zu 75% Auslastung hatten.........
Hat man aber mehrere Anwendungen gleichzeitig laufen lassen schaute der i7 3770K alt aus.
 
Mein Resultat war... mein größter failkauf überhaupt für Spiele 😅
Glaub mir, zu der Zeit hatte ich einen AMD Phenom II X4 965BE C3 und liebte ihn, ich hätte mir zu dem Moment keinen Wechsel zu Intel vorstellen können und plante sehr stark mit dem Bulldozer. Nach der Enttäuschung wechselte ich zu einen Intel i7 2700K, Sandy Bridge war zu der Zeit einfach unschlagbar.
 
Mein Resultat war... mein größter failkauf überhaupt für Spiele 😅
Dann hast du nicht weiter Gemacht, da es ja Spiele sind brauchst auch mehr GPU Leistung.
Ich hatte aus Test Gründe bis zu drei GPUs verbaut, aber die Skalierung war nicht mehr so gut [zwei vs drei ~33%]
Aber mit zwei GPUs haben sie nicht selten doppelt soviel FPS erzeugt als eine GPU.
Und das mit Frame Pacing, also die Ausrede mit den µ-Ruckler zieht nicht. ;)

Habe heute auch über AVX10, AVX10.2 und APX was gelesen, scheinbar wird das was Größeres vom Entwicklungsumfang her.
Fragt sich wer dann in die Tasten hauen soll? Oder ob der Compiler das Regeln kann?
 
Zuletzt bearbeitet :
Was hat das mit Anfänger zutun, wenn die Leistung einfach fehlte?
Weil ich mit nem Intel P4 angefangen hatte und die Leistung angeblich besser war als bei AMD,die nächste Intel CPU was genau so beschissen, laut Testseiten und CB Forum natürlich das beste vom besten.War dann auch der Grund mit Testen an zu fangen.
Hab dann auf AMD gewechselt und seit dem hab ich die Leistung mit nahe zu Jeder Generation gehabt,die Verwandten die dennoch nen Intel haben wollten haben einen von mir bekommen und der wurde natürlich auch getestet, nur abseits der Fake Test waren die AMD dennoch besser.
Man muss auch bei AMD nicht jeden Werbemüll kaufen,dann stimmt auch die Leistung. ;)
 
Ging bei meiner Aussage nicht um den Vergleich eines Intels, kann ich auch garnichts zu sagen, da ich erst ab Skylake-X meine erste in der Hand hatte.

Davor hatte ich nur AMD.
 
Ging bei meiner Aussage nicht um den Vergleich eines Intels, kann ich auch garnichts zu sagen, da ich erst ab Skylake-X meine erste in der Hand hatte.

Davor hatte ich nur AMD.
Warum war Bulldozer dann ein Fehlkauf für Spiele wenn du kein Vergleich hattest und die damaligen Grafikkarten der Flaschenhals waren?
 
Oben Unten