NVIDIA setzt auf Power: RTX 5090 mit 600W, RTX 5080 bei 400W

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.087
Bewertungspunkte
10.159
Punkte
1
Standort
Redaktion
NVIDIA plant die Einführung der nächsten Generation von GeForce-Grafikkarten unter dem Codenamen “Blackwell”, die voraussichtlich mehr Strom verbrauchen werden als die aktuelle RTX 40 Serie. Laut dem Leaker Kopite7kimi wird die kommende Serie, zu der Modelle wie die RTX 5090 und RTX 5080 gehören, höhere thermische Designleistungen (TDPs) aufweisen als ihre Vorgänger. Diese Informationen sind besonders für Nutzer relevant, die beim Kauf von Grafikkarten auch den Energieverbrauch berücksichtigen müssen. Die TDP ist ein Maß dafür, wie viel Leistung eine GPU benötigt, um effektiv zu arbeiten und gibt Aufschluss darüber, welche Anforderungen an das Kühlsystem und die Stromversorgung gestellt werden. Laut […] (read full article...)
 
Irgendwie habe ich den Eindruck, das Blackwell Gaming nicht so der Hit wird....
 
Irgendwie habe ich den Eindruck, das Blackwell Gaming nicht so der Hit wird....
Denk auch… ein neues Effizienzwunder gibt’s vermutlich erst wieder mit wirklich neuem Fertigungsprozess.
Sowohl TSMCs 4N Prozess für die 4000er als auch der vermutete 4NP Prozess für die 5000er sind halt beide nur Derivative des 5nm Nodes.

Erst mit 3nm wird sich der Verbrauch angeblich wieder um 25-30% senken.

Deutlich mehr Performance wird das Ding aber trotzdem liefern… wenn die Gerüchte um 50% mehr CUDA-Cores und der Wechsel zu GDDR7 VRAM nicht völlig verkehrt sind.
 
Zuletzt bearbeitet :
Ich hoffe auf die 8000er von AMD...
Ich denke Nvidia muss verstehen, dass Stromverbrauch nicht mit Nachhaltigkeit zusammenpasst. Jede Generation ein neues/Leistungsfähigeres Netzteil auch nicht. Dafür soll ich dann auch noch horrende Preise zahlen, damit Nvidia utopische Gewinnmargen einfährt.

Ich hoffe auf eine AMD Karte Max. 300W mit Leistung 4090 ggf. einen hauch mehr. Den Raytracing und AI Bums können sie einfach weg lassen, dafür den Chip kleiner machen und max. 700 EUR ansetzen von mir aus eine 4K Version mit mehr als 16GB Vram.

Ruckzuck relevante Marktanteile und Nvidia kann weiter Massen an Karten an andere Unternehmen verkaufen.

Fühl mich auch verarscht, erst zahle ich drauf wegen der Kryptoheinis, jetzt wegen der KI heinis..

Würde mich nicht wundern, wenn die Basis des Erfolgs die Berechnungen und KI Ansätze aus Games/Gameengines sind. Fühlt sich aber so an, als würden Gamer nur noch notgedrungen mit Karten versorgt...
 
Naja, das war zu erwarten. Nachdem die Adas effizienter waren, als erwartet, konnte man sich entscheiden: aufwändig an der Architektur schrauben oder einfach mehr Sprit durchjagen.
Immer dran denken: schon die 4090 war theoretisch für 600 Watt ausgelegt.
 
Nur weil der Connector das "kann" (wie wir wissen nur standfest unter Laborbedingungen und mit steck-mich-ganz-tief-rein-Roboter nit Sprinkleranlage) heißt das noch garnichts.
Und AMD hält sich bedeckt (spielt aber in den Augen der allermeisten kaum eine Rolle)

LEIDER passen die Spieleentwickler ihren Hardwaredurst immer noch an die inzwischen 1,6k€-Speerspitze mit 400W+ an und sagen zu den Normalos: "Friß oder Stirb!"

Sehr nachhaltig, indeed!
 
@Samir Bashir : TDP = Volllastverbrauchsgrenze ; dass ist nicht unbedingt mit "effektiv arbeiten" gleichsetzbar; mit effizient wäre es das auf keinen Fall.
 
Nur weil der Connector das "kann" (wie wir wissen nur standfest unter Laborbedingungen und mit steck-mich-ganz-tief-rein-Roboter nit Sprinkleranlage) heißt das noch garnichts.
Und AMD hält sich bedeckt (spielt aber in den Augen der allermeisten kaum eine Rolle)
Die weitaus meisten Spieler spielen die aktuellen Spiele auf AMDs RDNA Hardware - und das wohl ganz ohne Probleme.
Spiele mit RTX Logo scheinen auf dem PC nur besonders langsam zu sein, als wollten die dass man eine 2000€ Nvidia Karte kauft :p

Beim Connector sind wir uns hoffentlich alle einig: WTF

LEIDER passen die Spieleentwickler ihren Hardwaredurst immer noch an die inzwischen 1,6k€-Speerspitze mit 400W+ an und sagen zu den Normalos: "Friß oder Stirb!"
Das stimmt doch gar nicht. Gerade die Multiplattformtitel laufen auf den AMD Konsolen mit deutlich weniger Watt und 4k (gleiche Codebasis).
Auch die PC-Handhelds mit AMD drinnen lassen die Spiele mobil ohne großen Wattverbrauch laufen (zumindest unter Linux).
 
Die weitaus meisten Spieler spielen die aktuellen Spiele auf AMDs RDNA Hardware - und das wohl ganz ohne Probleme.
Spiele mit RTX Logo scheinen auf dem PC nur besonders langsam zu sein, als wollten die dass man eine 2000€ Nvidia Karte kauft :p

Beim Connector sind wir uns hoffentlich alle einig: WTF


Das stimmt doch gar nicht. Gerade die Multiplattformtitel laufen auf den AMD Konsolen mit deutlich weniger Watt und 4k (gleiche Codebasis).
Auch die PC-Handhelds mit AMD drinnen lassen die Spiele mobil ohne großen Wattverbrauch laufen (zumindest unter Linux).

Ich denke...das Problem ist das die PC-Version bon Multiplattformspielen meist einfach nur schlecht portierte Konsolengames sind.
Und ein schlecht programmiertes Game braucht deutlich mehr Power durch die GPU als ordentlich programmierte Sachen,

Und zum allgemeinen Stromverbrauch der neuen Karten.. Naja wer sich eine Graka für 2000 Euro holt..dem wird der Stromverbrauch völlig egal sein.
Der dürfte eher in der Mittelklasse dann wieder interessant werden für die Spieler.
 
Ich denke...das Problem ist das die PC-Version bon Multiplattformspielen meist einfach nur schlecht portierte Konsolengames sind.
Und ein schlecht programmiertes Game braucht deutlich mehr Power durch die GPU als ordentlich programmierte Sachen,
Das Pferd springt hier nur so hoch wie es muss.
Das ist das alte Problem in der Spieleentwicklung - die Entwickler haben halt selbst oft dicke Grafikkarten und orientieren sich an denen.
Hab das selbst mal bei einem Spiel gemerkt, an dem ich gearbeitet hab - hab mir ‘nen uralten Laptop mit nach Hause und damit gearbeitet.
Auf einmal hab ich jedes Frame und jede Sekunde Ladezeit gespürt, die ich bei der Entwicklung verloren hab und dadurch viel effizienteren Code geschrieben. :)

Und zum allgemeinen Stromverbrauch der neuen Karten.. Naja wer sich eine Graka für 2000 Euro holt..dem wird der Stromverbrauch völlig egal sein.
Der dürfte eher in der Mittelklasse dann wieder interessant werden für die Spieler.
Kommt drauf an… wenn man damit nicht nur zockt, sondern auch die KI gerne mal stundenlang über ein paar Videos rennen lässt, läppert sich das schon.
 
da ich eh nur mit WQHD 100fps zock, dürfte mir meine 4070 Super noch ne Weile treue Dienste leisten.
Das mit nur maximal 220W. :)
 
Ich hoffe auf eine passable 5070, um meine 2080 Super austauschen zu können. Aber immer mehr Verbrauch bei den Karten finde ich nicht gut. Mal schauen, wie die Specs letztendlich aussehen und was AMD mit den 8000ern noch bringt.
 
Ich bleibe einfach bei meiner 4080 non Super. Spiele eh nur in 1440p. Das sollte die nächsten 2-3 Jahre ausreichend funktionieren.
 
Wenn die Entwicklung so weiter geht, na dann Prost Mahlzeit. Karten werden immer teurer. Spiele immer leistungshungriger. Von Raytracing voll nutzen zu können im höheren FPS Bereich sind wir auch aus meiner Sicht weit entfernt. Ohne Upsampling Helferlein, sind manche Titel mit Midrange Karten nur bedingt spielbar. Microtransaktionen in den Games. Häufig unfertige Games. Und und und..... Irgendwie habe ich das Gefühl mir ein neues Hobby suchen zu müssen. Naja, mal schauen was die Zukunft bringt.

Was ich allerdings doch immer sehr amüsant finde sind die Monitorhersteller mit ihren (Achtung Übertreibung) 1200 hz 4K Panelen. Faktisch gibt es keine Hardware die diese Bilder überhaupt zaubern kann. Weckt bei mir irgendwie die Erinnerung an den Mega Pixel Wahn der Digicams. Kleiner Sensor aber viele Mega Pixel. Qualität der Bilder sogar eher schlechter. Aber Hauptsache man kanns aufs Marketingpapier schreiben. ;)
 
Immer eine Frage der Games, der Auflösung und der Sucht nach Details.

Bin bei 1080p und im Jänner von 4770k & HD 7970 auf 7800X3D und GRE umgestiegen....

Schon krass die Unterschiede zwischen der Version "alle Regler nach links" und der "alle Regler nach rechts"; wirkt meist wie komplett andere Games.

Und ja der Build fadisiert sich immer noch, während der Alte zum großen Föhn angeblasen hat.
 
deswegen bin ich ja auch wieder zurück zu WQHD. Wo geht, nun auch alle Regler nach rechts. xD
Wobei das gar nicht sein muss, weil auf hoch oder sehr hoch siehts fast genauso gut aus, quält aber die Hw nicht so und man hat noch mal bissl mehr Fps.
 
Ich hoffe auf die 8000er von AMD...
Ich denke Nvidia muss verstehen, dass Stromverbrauch nicht mit Nachhaltigkeit zusammenpasst. Jede Generation ein neues/Leistungsfähigeres Netzteil auch nicht. Dafür soll ich dann auch noch horrende Preise zahlen, damit Nvidia utopische Gewinnmargen einfährt.

Ich hoffe auf eine AMD Karte Max. 300W mit Leistung 4090 ggf. einen hauch mehr. Den Raytracing und AI Bums können sie einfach weg lassen, dafür den Chip kleiner machen und max. 700 EUR ansetzen von mir aus eine 4K Version mit mehr als 16GB Vram.

Ruckzuck relevante Marktanteile und Nvidia kann weiter Massen an Karten an andere Unternehmen verkaufen.

Fühl mich auch verarscht, erst zahle ich drauf wegen der Kryptoheinis, jetzt wegen der KI heinis..

Würde mich nicht wundern, wenn die Basis des Erfolgs die Berechnungen und KI Ansätze aus Games/Gameengines sind. Fühlt sich aber so an, als würden Gamer nur noch notgedrungen mit Karten versorgt...

Die 8800xt wird wohl auf knapp unter der 7900xt Leitung und 4080 in Raytracing landen mit 16 GB RAM. Dafür aber wesentlich günstiger werden und hoffentlich auch energiesparender. Die 7900xt mit 20 GB und die 7900xtx mit 24 GB werden erhalten bleiben für alle die mehr RAM haben wollen.
Von AMD wird die kommende Generation keine High End auf Niveau der 4090 kommen!

Hintergrund wird wohl hauptsächlich die Embargos von HighEnd Chips nach China sein. Die US Regierung erlaubt ja hier nichts was auf 4090 Niveau kommt zu verkaufen. AMD spart sich hier die Entwicklungskosten und wird sich eher auf die PS5 Pro und sonstige Konsolen konzentrieren. Neben AI natürlich ;-)
 
Also ich sehe das irgendwie etwas entspannt. 1. ist mein Hauptzeitvertreib nicht Zeit mit Games zu vertrödeln, als dass 3, 4 oder 500 Watt für die paar Stunden eine Rolle spielen würden, zweitens sind das alles nur Mutmaßungen und die letzte Version (4xxx) hat gezeigt, dass es doch nicht so heiß gegessen wie gekocht wurde.

Was Daueranwender mit KI oder sonstwas angeht ebenfalls, ich kann mir nicht einen Ferrari kaufen, den zum Alltagsauto machen und mich dann darüber beschweren, dass die Spritrechnung höher ist als bei einem potenten Diesel der zwar weniger Spaß macht und schlechter aussieht, dafür aber etwas effizienter ist.

Ich denke, der ein oder andere sollte in der Debatte vielleicht auch einmal die Kirche im Dorf lassen. Wir wissen noch garnicht wie das Leistungsaufnahmeprofil der neuen Karten aussehen wird. Am Ende entscheidet der Nutzer ob es einem in Sachen Anschaffung und Betriebskosten wert ist oder nicht, aber wir reden hier immer noch von Karten die in den meisten Fällen für den Zeitvertreib genutzt werden und hier liegt die ökologische Entscheidung zu aller erstmal beim Nutzer und nicht beim Anbieter... Wenn euch der Planet so wichtig ist und ihr der Meinung seid, ihr rettet die Welt mit 50 Watt weniger bei der GPU dann spielt in Summe weniger oder schraubt die Werte runter. Stellvertreterkriege und Forderungen, die "anderen" (Hersteller, Nutzer, Spieleentwickler) sollen Dinge lösen die Euch wichtig sind bringen nicht sonderlich viel, so funktioniert die Welt leider nicht.

Im Gegenzug könnte man auch 2 x die Woche mit dem Radfahren, die RGB Beleuchtung im Gamingzimmer für die Zeit des Spielens auslassen, das Aquarium 2 stunden weniger Beleuchten oder die Außenbeleuchtung der eigenen Hütte weniger nutzen - wenn es einem denn wirklich wichtig wäre.

Da spielt eine Grafikkarte in der Klasse nun wirklich eine untergeordnete Rolle.
 
Also ich sehe das irgendwie etwas entspannt. 1. ist mein Hauptzeitvertreib nicht Zeit mit Games zu vertrödeln, als dass 3, 4 oder 500 Watt für die paar Stunden eine Rolle spielen würden, zweitens sind das alles nur Mutmaßungen und die letzte Version (4xxx) hat gezeigt, dass es doch nicht so heiß gegessen wie gekocht wurde.

Was Daueranwender mit KI oder sonstwas angeht ebenfalls, ich kann mir nicht einen Ferrari kaufen, den zum Alltagsauto machen und mich dann darüber beschweren, dass die Spritrechnung höher ist als bei einem potenten Diesel der zwar weniger Spaß macht und schlechter aussieht, dafür aber etwas effizienter ist.

Ich denke, der ein oder andere sollte in der Debatte vielleicht auch einmal die Kirche im Dorf lassen. Wir wissen noch garnicht wie das Leistungsaufnahmeprofil der neuen Karten aussehen wird. Am Ende entscheidet der Nutzer ob es einem in Sachen Anschaffung und Betriebskosten wert ist oder nicht, aber wir reden hier immer noch von Karten die in den meisten Fällen für den Zeitvertreib genutzt werden und hier liegt die ökologische Entscheidung zu aller erstmal beim Nutzer und nicht beim Anbieter... Wenn euch der Planet so wichtig ist und ihr der Meinung seid, ihr rettet die Welt mit 50 Watt weniger bei der GPU dann spielt in Summe weniger oder schraubt die Werte runter. Stellvertreterkriege und Forderungen, die "anderen" (Hersteller, Nutzer, Spieleentwickler) sollen Dinge lösen die Euch wichtig sind bringen nicht sonderlich viel, so funktioniert die Welt leider nicht.

Im Gegenzug könnte man auch 2 x die Woche mit dem Radfahren, die RGB Beleuchtung im Gamingzimmer für die Zeit des Spielens auslassen, das Aquarium 2 stunden weniger Beleuchten oder die Außenbeleuchtung der eigenen Hütte weniger nutzen - wenn es einem denn wirklich wichtig wäre.

Da spielt eine Grafikkarte in der Klasse nun wirklich eine untergeordnete Rolle.
Wenn der Strom aus regenerativen Energien stammt, ist es eh bums. Dann bleibt nur noch die Kostendiskussion ;)
 
Oben Unten