Allgemein Grafikkarten News

NVIDIA setzt auf Power: RTX 5090 mit 600W, RTX 5080 bei 400W

NVIDIA plant die Einführung der nächsten Generation von GeForce-Grafikkarten unter dem Codenamen “Blackwell”, die voraussichtlich mehr Strom verbrauchen werden als die aktuelle RTX 40 Serie. Laut dem Leaker Kopite7kimi  wird die kommende Serie, zu der Modelle wie die RTX 5090 und RTX 5080 gehören, höhere thermische Designleistungen (TDPs) aufweisen als ihre Vorgänger. Diese Informationen sind besonders für Nutzer relevant, die beim Kauf von Grafikkarten auch den Energieverbrauch berücksichtigen müssen.

Die TDP ist ein Maß dafür, wie viel Leistung eine GPU benötigt, um effektiv zu arbeiten und gibt Aufschluss darüber, welche Anforderungen an das Kühlsystem und die Stromversorgung gestellt werden. Laut den aktuellen Berichten soll die RTX 5090 eine TDP von 600 Watt haben, was einer Steigerung von 33 Prozent im Vergleich zur RTX 4090 entspricht, die mit 450 Watt bewertet ist. Die RTX 5080 könnte eine TDP von 400 Watt aufweisen, was im Vergleich zur RTX 4080 einen Anstieg von 25 Prozent darstellt. Das Modell RTX 5070 soll im Bereich von 250 bis 275 Watt liegen, was eine Zunahme von etwa 13 bis 15 Prozent gegenüber der RTX 4070 bedeutet.

Diese gesteigerten TDP-Werte könnten Auswirkungen auf die Wahl des Netzteils haben. Nutzer, die über den Kauf einer dieser neuen Grafikkarten nachdenken, müssen möglicherweise ihre Netzteile aufrüsten, um die höhere Leistungsaufnahme zu bewältigen. Dies ist besonders wichtig für diejenigen, die Systeme mit einer hohen Anzahl anderer stromhungriger Komponenten betreiben.

Eine Tabelle, die die möglichen TDP-Werte der kommenden RTX 50 Serie im Vergleich zu den aktuellen Modellen aufzeigt, kann helfen, die Unterschiede klarer darzustellen:

TDP (RTX 40 Serie) TDP (RTX 50 Serie) Zunahme in Prozent
450 W 600 W +33%
320 W 400 W +25%
200-220 W 250-275 W +13-15%

Die tatsächlichen Leistungsaufnahmen in praxisnahen Anwendungen können jedoch variieren. Die bisherigen Erfahrungen mit der RTX 40 Serie zeigen, dass die Karten in typischen Spielszenarien häufig weniger Energie verbrauchen als die angegebenen TDP-Werte. Nur in besonders anspruchsvollen Anwendungen, wie etwa Raytracing oder intensiven GPU-Benchmarks, nähern sich die Karten den angegebenen TDPs.

Einige Netzteilhersteller wie Seasonic und Cooler Master haben bereits höhere TDP-Werte für die neuen NVIDIA GeForce RTX 50 “Blackwell” GPUs in ihren Listen aufgenommen. Dies könnte ein weiterer Hinweis darauf sein, dass die höheren Leistungsanforderungen realistisch sind.

Momentan gibt es nur begrenzte Informationen zu den technischen Spezifikationen und der genauen Konfiguration der kommenden GeForce RTX 50 Serie. Es wird jedoch erwartet, dass NVIDIA die neue Generation im Rahmen der CES 2025 vorstellt. Bis dahin bleibt abzuwarten, wie die tatsächlichen Spezifikationen der finalen Produkte aussehen werden. Nutzer sollten in der Zwischenzeit überlegen, ob ihr derzeitiges System den Anforderungen dieser neuen GPU-Generation gewachsen ist oder ob eine Aufrüstung notwendig ist.

Source: Kopite7kimi via X

Kommentar

Lade neue Kommentare

Case39

Urgestein

2,573 Kommentare 983 Likes

Irgendwie habe ich den Eindruck, das Blackwell Gaming nicht so der Hit wird....

Antwort 1 Like

s
samhayne

Veteran

117 Kommentare 87 Likes

Denk auch… ein neues Effizienzwunder gibt’s vermutlich erst wieder mit wirklich neuem Fertigungsprozess.
Sowohl TSMCs 4N Prozess für die 4000er als auch der vermutete 4NP Prozess für die 5000er sind halt beide nur Derivative des 5nm Nodes.

Erst mit 3nm wird sich der Verbrauch angeblich wieder um 25-30% senken.

Deutlich mehr Performance wird das Ding aber trotzdem liefern… wenn die Gerüchte um 50% mehr CUDA-Cores und der Wechsel zu GDDR7 VRAM nicht völlig verkehrt sind.

Antwort 3 Likes

A
AkShen

Mitglied

33 Kommentare 5 Likes

Ich hoffe auf die 8000er von AMD...
Ich denke Nvidia muss verstehen, dass Stromverbrauch nicht mit Nachhaltigkeit zusammenpasst. Jede Generation ein neues/Leistungsfähigeres Netzteil auch nicht. Dafür soll ich dann auch noch horrende Preise zahlen, damit Nvidia utopische Gewinnmargen einfährt.

Ich hoffe auf eine AMD Karte Max. 300W mit Leistung 4090 ggf. einen hauch mehr. Den Raytracing und AI Bums können sie einfach weg lassen, dafür den Chip kleiner machen und max. 700 EUR ansetzen von mir aus eine 4K Version mit mehr als 16GB Vram.

Ruckzuck relevante Marktanteile und Nvidia kann weiter Massen an Karten an andere Unternehmen verkaufen.

Fühl mich auch verarscht, erst zahle ich drauf wegen der Kryptoheinis, jetzt wegen der KI heinis..

Würde mich nicht wundern, wenn die Basis des Erfolgs die Berechnungen und KI Ansätze aus Games/Gameengines sind. Fühlt sich aber so an, als würden Gamer nur noch notgedrungen mit Karten versorgt...

Antwort 2 Likes

grimm

Urgestein

3,227 Kommentare 2,165 Likes

Naja, das war zu erwarten. Nachdem die Adas effizienter waren, als erwartet, konnte man sich entscheiden: aufwändig an der Architektur schrauben oder einfach mehr Sprit durchjagen.
Immer dran denken: schon die 4090 war theoretisch für 600 Watt ausgelegt.

Antwort 1 Like

b
bitracer

Veteran

148 Kommentare 74 Likes

Nur weil der Connector das "kann" (wie wir wissen nur standfest unter Laborbedingungen und mit steck-mich-ganz-tief-rein-Roboter nit Sprinkleranlage) heißt das noch garnichts.
Und AMD hält sich bedeckt (spielt aber in den Augen der allermeisten kaum eine Rolle)

LEIDER passen die Spieleentwickler ihren Hardwaredurst immer noch an die inzwischen 1,6k€-Speerspitze mit 400W+ an und sagen zu den Normalos: "Friß oder Stirb!"

Sehr nachhaltig, indeed!

Antwort 1 Like

LurkingInShadows

Urgestein

1,397 Kommentare 592 Likes

@Samir Bashir : TDP = Volllastverbrauchsgrenze ; dass ist nicht unbedingt mit "effektiv arbeiten" gleichsetzbar; mit effizient wäre es das auf keinen Fall.

Antwort Gefällt mir

Y
Yumiko

Urgestein

688 Kommentare 337 Likes

Die weitaus meisten Spieler spielen die aktuellen Spiele auf AMDs RDNA Hardware - und das wohl ganz ohne Probleme.
Spiele mit RTX Logo scheinen auf dem PC nur besonders langsam zu sein, als wollten die dass man eine 2000€ Nvidia Karte kauft :p

Beim Connector sind wir uns hoffentlich alle einig: WTF

Das stimmt doch gar nicht. Gerade die Multiplattformtitel laufen auf den AMD Konsolen mit deutlich weniger Watt und 4k (gleiche Codebasis).
Auch die PC-Handhelds mit AMD drinnen lassen die Spiele mobil ohne großen Wattverbrauch laufen (zumindest unter Linux).

Antwort Gefällt mir

T
TheSmart

Veteran

445 Kommentare 224 Likes

Ich denke...das Problem ist das die PC-Version bon Multiplattformspielen meist einfach nur schlecht portierte Konsolengames sind.
Und ein schlecht programmiertes Game braucht deutlich mehr Power durch die GPU als ordentlich programmierte Sachen,

Und zum allgemeinen Stromverbrauch der neuen Karten.. Naja wer sich eine Graka für 2000 Euro holt..dem wird der Stromverbrauch völlig egal sein.
Der dürfte eher in der Mittelklasse dann wieder interessant werden für die Spieler.

Antwort 2 Likes

s
samhayne

Veteran

117 Kommentare 87 Likes

Das Pferd springt hier nur so hoch wie es muss.
Das ist das alte Problem in der Spieleentwicklung - die Entwickler haben halt selbst oft dicke Grafikkarten und orientieren sich an denen.
Hab das selbst mal bei einem Spiel gemerkt, an dem ich gearbeitet hab - hab mir ‘nen uralten Laptop mit nach Hause und damit gearbeitet.
Auf einmal hab ich jedes Frame und jede Sekunde Ladezeit gespürt, die ich bei der Entwicklung verloren hab und dadurch viel effizienteren Code geschrieben. :)

Kommt drauf an… wenn man damit nicht nur zockt, sondern auch die KI gerne mal stundenlang über ein paar Videos rennen lässt, läppert sich das schon.

Antwort 3 Likes

m
mattiii

Mitglied

40 Kommentare 22 Likes

da ich eh nur mit WQHD 100fps zock, dürfte mir meine 4070 Super noch ne Weile treue Dienste leisten.
Das mit nur maximal 220W. :)

Antwort 1 Like

Dr4x

Mitglied

99 Kommentare 66 Likes

Ich hoffe auf eine passable 5070, um meine 2080 Super austauschen zu können. Aber immer mehr Verbrauch bei den Karten finde ich nicht gut. Mal schauen, wie die Specs letztendlich aussehen und was AMD mit den 8000ern noch bringt.

Antwort Gefällt mir

A
Amco1982

Neuling

9 Kommentare 3 Likes

Ich bleibe einfach bei meiner 4080 non Super. Spiele eh nur in 1440p. Das sollte die nächsten 2-3 Jahre ausreichend funktionieren.

Antwort 1 Like

G
GPUModder

Mitglied

86 Kommentare 34 Likes

Wenn die Entwicklung so weiter geht, na dann Prost Mahlzeit. Karten werden immer teurer. Spiele immer leistungshungriger. Von Raytracing voll nutzen zu können im höheren FPS Bereich sind wir auch aus meiner Sicht weit entfernt. Ohne Upsampling Helferlein, sind manche Titel mit Midrange Karten nur bedingt spielbar. Microtransaktionen in den Games. Häufig unfertige Games. Und und und..... Irgendwie habe ich das Gefühl mir ein neues Hobby suchen zu müssen. Naja, mal schauen was die Zukunft bringt.

Was ich allerdings doch immer sehr amüsant finde sind die Monitorhersteller mit ihren (Achtung Übertreibung) 1200 hz 4K Panelen. Faktisch gibt es keine Hardware die diese Bilder überhaupt zaubern kann. Weckt bei mir irgendwie die Erinnerung an den Mega Pixel Wahn der Digicams. Kleiner Sensor aber viele Mega Pixel. Qualität der Bilder sogar eher schlechter. Aber Hauptsache man kanns aufs Marketingpapier schreiben. ;)

Antwort 2 Likes

m
mattiii

Mitglied

40 Kommentare 22 Likes

damit geht sogar 4K locker, wenn man die Regler bedienen kann.

Antwort 1 Like

LurkingInShadows

Urgestein

1,397 Kommentare 592 Likes

Immer eine Frage der Games, der Auflösung und der Sucht nach Details.

Bin bei 1080p und im Jänner von 4770k & HD 7970 auf 7800X3D und GRE umgestiegen....

Schon krass die Unterschiede zwischen der Version "alle Regler nach links" und der "alle Regler nach rechts"; wirkt meist wie komplett andere Games.

Und ja der Build fadisiert sich immer noch, während der Alte zum großen Föhn angeblasen hat.

Antwort 3 Likes

m
mattiii

Mitglied

40 Kommentare 22 Likes

deswegen bin ich ja auch wieder zurück zu WQHD. Wo geht, nun auch alle Regler nach rechts. xD
Wobei das gar nicht sein muss, weil auf hoch oder sehr hoch siehts fast genauso gut aus, quält aber die Hw nicht so und man hat noch mal bissl mehr Fps.

Antwort Gefällt mir

chippi

Mitglied

24 Kommentare 38 Likes

Die 8800xt wird wohl auf knapp unter der 7900xt Leitung und 4080 in Raytracing landen mit 16 GB RAM. Dafür aber wesentlich günstiger werden und hoffentlich auch energiesparender. Die 7900xt mit 20 GB und die 7900xtx mit 24 GB werden erhalten bleiben für alle die mehr RAM haben wollen.
Von AMD wird die kommende Generation keine High End auf Niveau der 4090 kommen!

Hintergrund wird wohl hauptsächlich die Embargos von HighEnd Chips nach China sein. Die US Regierung erlaubt ja hier nichts was auf 4090 Niveau kommt zu verkaufen. AMD spart sich hier die Entwicklungskosten und wird sich eher auf die PS5 Pro und sonstige Konsolen konzentrieren. Neben AI natürlich ;-)

Antwort Gefällt mir

S
SpotNic

Urgestein

1,115 Kommentare 482 Likes

Also ich sehe das irgendwie etwas entspannt. 1. ist mein Hauptzeitvertreib nicht Zeit mit Games zu vertrödeln, als dass 3, 4 oder 500 Watt für die paar Stunden eine Rolle spielen würden, zweitens sind das alles nur Mutmaßungen und die letzte Version (4xxx) hat gezeigt, dass es doch nicht so heiß gegessen wie gekocht wurde.

Was Daueranwender mit KI oder sonstwas angeht ebenfalls, ich kann mir nicht einen Ferrari kaufen, den zum Alltagsauto machen und mich dann darüber beschweren, dass die Spritrechnung höher ist als bei einem potenten Diesel der zwar weniger Spaß macht und schlechter aussieht, dafür aber etwas effizienter ist.

Ich denke, der ein oder andere sollte in der Debatte vielleicht auch einmal die Kirche im Dorf lassen. Wir wissen noch garnicht wie das Leistungsaufnahmeprofil der neuen Karten aussehen wird. Am Ende entscheidet der Nutzer ob es einem in Sachen Anschaffung und Betriebskosten wert ist oder nicht, aber wir reden hier immer noch von Karten die in den meisten Fällen für den Zeitvertreib genutzt werden und hier liegt die ökologische Entscheidung zu aller erstmal beim Nutzer und nicht beim Anbieter... Wenn euch der Planet so wichtig ist und ihr der Meinung seid, ihr rettet die Welt mit 50 Watt weniger bei der GPU dann spielt in Summe weniger oder schraubt die Werte runter. Stellvertreterkriege und Forderungen, die "anderen" (Hersteller, Nutzer, Spieleentwickler) sollen Dinge lösen die Euch wichtig sind bringen nicht sonderlich viel, so funktioniert die Welt leider nicht.

Im Gegenzug könnte man auch 2 x die Woche mit dem Radfahren, die RGB Beleuchtung im Gamingzimmer für die Zeit des Spielens auslassen, das Aquarium 2 stunden weniger Beleuchten oder die Außenbeleuchtung der eigenen Hütte weniger nutzen - wenn es einem denn wirklich wichtig wäre.

Da spielt eine Grafikkarte in der Klasse nun wirklich eine untergeordnete Rolle.

Antwort 1 Like

Klicke zum Ausklappem
grimm

Urgestein

3,227 Kommentare 2,165 Likes

Wenn der Strom aus regenerativen Energien stammt, ist es eh bums. Dann bleibt nur noch die Kostendiskussion ;)

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung