News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

35% mehr performance ist für mich aber kein Game Changer.
Und 24GB RAM auch nicht, da er wie gesagt für Spiele nix /kaum was bringt. Hat man mit den 24GB RAM bei der Titan RTX gesehen. Die Titan RTX war zwar schneller als die 2080-Ti - aber der unterschied war kleiner als der von der 2080 zu 2080 super - und das bei mehr als dem DOPPELTEM RAM.
 
Zuletzt bearbeitet :
Heute geht nichts mehr weiter, weil Leistungssteigerung teilweise von neuen Gen 1:1 an hoeheren Preisen weitergereicht wird.

Die Leute zahlen es eben aber auch, GTX 580 war ein GF 110 Chip fuer 499 Euro, heute bekommt man nichtmal mehr das beste um 1000 Euro,
sondern selbst fuer das Geld einen beschnittenen muell Chip der normal fuer weniger Geld verkauft werden wuerde.
 
35% mehr performance ist die mich aber kein game changer.
Und 24gb ram auch nicht, da er wie gesagt für Spiele nix /kaum was bringt. Hat man mit den 21gb RAM bei der titan rtx gesehen.
Mit Game Changer ist auch nicht einfach mehr vom alten Zeugs gemeint. Das würde das Game nicht ändern, sondern vorantreiben.
 
Okay ändern wir das Game halt, wird NVidia nicht freuen, aber was solls, wie wäre es mit den Preisen?

RTX 3060 320 Euro
RTX 3070 460 Euro
RTX 3080 600 Euro
RTX 3090 740 Euro?

Wenn ich richtig drüber nachdenke, müsste auf diese Weise, ihr Umsatz durch die Decke schießen. Wahrscheinlich sogar noch weiter, als er es derzeit schon tut. Das Problem daran ist aber das die Margen für die Boardpartner dadurch nicht gedeckt wären.

Die GTX 580 erschien vor 9 Jahren, 100 Euro, sind in etwa der Ausgleich der Inflation.
 
Zuletzt bearbeitet :
@Kruemel44 Wünsch dir was Preise, bringen niemanden etwas...
 
@Kruemel44 Wünsch dir was Preise, bringen niemanden etwas...
Das sind nur keine Wünsch dir was Preise, sondern relativ fundiert, nachdem die Preise für Halbleiter ziemlich stark gesunken sind in den letzten 2 Jahren. Die Konsumenten, können Nvidia auch links liegen lassen und ein paar Jahre warten.
 
@Derfnam
Ich sprach ja von Trend, bereits die 2080 hatte Auswirkungen auf die Quadrokundschaft. Igor hat da einige erhellende Artikel zu gebracht, welche Fortschritte RT-Cores für die Visualisierung gebracht haben. Wenn man am PC etwas designt, sieht man das meist nur in vereinfachter Form, nicht in RT, das würde die Arbeitsgeschwindigkeit verringern, bzw. die Reaktionsgeschwindigkeit des Rechners reduzieren. Ist die Arbeit ausreichend fortgeschritten, leitet man eine Raytracing-Berechnung ein, die nach 10-20 s erste Eindrücke der Arbeit in Raytracing vermittelt.

Die RT-Cores der Turing Serie haben hier einen derartigen Fortschritt gebracht, das man die Veränderungen an seiner Arbeit in Echtzeit in einem Vorschaufenster in Raytracing verfolgen kann.

Ampere wird das jetzt noch mal drastisch verbessern, da kann man bei einer 3090ti im Multi Monitorbetrieb auf Monitor A Konstruieren/Texturieren, Lichter setzen, Animieren usw. und auf Monitor B sieht man eine Vorschau in Raytracing in Echtzeit. Zwar mit etwas reduzierter Qualität, aber ausreichend um die Auswirkungen sofort zu erfassen. Quadro Karten schaffen das nicht, denen fehlen dazu die RT Kerne. Wenn man eine Workstation mit zwei Quadro6000 hat, geht das vielleicht, aber Vergleich das mal im Preis mit einer 2080 ti. Hier hat das "GameChanging" bereits mit Turing stattgefunden. Ampere setzt es nur fort.
 
@Kruemel44 Wo isn da bitte was fundiert? Selbst relativ?
 
@Dragus stimmt ja auch, aber dann hätte Nvidia RT niemals für den Mainstream veröffentlichen dürfen, daß jetzt die ganzen Entwickler natürlich auch auf die günstigeren Karten zurückgreifen war abzusehen, keiner verdient genug um Utopische Preise zu zahlen, alle haben auch ein Leben.
 
Zuletzt bearbeitet :
@Besterino schon ziemlich, wenn man bedenkt, das Schands, Spulen, Kondensatoren, Mosfets Massenproduktion sind und pro stück in der Fertigung zwischen 1-5 Cent kosten.
 
Also raise the rays gilt auch für die 4 hier, @Dragus?
 
Aha. Und du hast jetzt die Komponenten gezählt und daraus den Preis berechnet oder wie?

oh Mann. Ich nehm mir mal ne Auszeit.
 
@Kruemel44
Dir sind aber schon die Preise der letzten Generation bekannt? Ich würde mich sehr, SEHR wundern, wenn Nvidia hier jetzt wieder einlenkt und die Preise nach unten hin korrigiert...
 
Harhar. Die 3090 unter 800 €? Da wette ich sogar meine letzten 3 verbliebenen Haupthaare dagegen. Wir reden hier von Nvidia. Die sind Meister in Preisstrategie. Das wird hart die 1000er Grenze ankratzen, als unteres Limit, wenn nicht sogar...
 
Gerüchten zufolge gibt´s sie um knackige 14-15 Hundert.
 
@Kruemel44
Ich sehe die Probleme ganz woanders, nämlich im Anspruchsdenken der Gamer. Früher war es das normalste der Welt, die Einstellungen im Spiel so zu wählen, das man ein Gleichgewicht zwischen Qualität und FPS findet. Daran hat sich nie etwas geändert. Das kann man bei jeder Karte.
Wenn nun aber der Anspruch ist, die maximal verfügbare Monitorauflösung 4k auf >120 Hz haben zu wollen, alles auf Ultra, dann hat man gegenüber 60 Hz/1080p eine verachtfachen der Rechenleistung, benötigt mindestens den doppelten Vram und eine doppelt komplexe Geometrie, weil man sonst nicht mehr Details sieht. Sterile Landschaften wirken nicht natürlicher, in dem man die Auflösung erhöht. Die Systemanforderungen sind dadurch deutlich gestiegen - auf das Niveau preiswerter Grafik-Workstations.

Es gibt also eine Nachfrage nach Karten, die deutlich mehr können, als früher und Kunden, die alles auf Maximum wollen.

Ich hatte letztes Jahr noch eine gtx970 und 1080p. Jetzt eben 2070 und WQHD. Damit bin ich nicht auf Maximum, aber zufrieden. Und die 2070 war auch nur wenig teurer als die gtx970.

Das RT in den Mainstream geht, da hast du recht, das war ein betriebswirtschaftliches Risiko, das nVidia nur bereit war einzugehen, weil AMD so schlecht war. nVidia konnte es sich leisten, ca. 20% ihrer Chipfläche für RT und Tensor Cores zu verwenden und trotzdem AMD in Schach zu halten.
Nun haben sie die Marktführerschaft für Raytracing, sowohl in Spielen als auch im Profibereich und AMD muss sehen, ob sie es mit den Konsolen herausreißen können.

Es steht nach wie vor jedem Frei, sich preiswertere Modelle zu kaufen, die kein RT oder Tensor haben. AMD hat mit Navi genau diese Lücke gefüllt. Und das finde ich auch gut so. Das wird allerdings nach und nach unmöglich werden, denn der Leistungszuwachs und die neuen Möglichkeiten durch RT und Tensorkerne entwickeln sich schnell weiter. Karten ohne selbige findet man heute nur noch in der Mittelklasse, bald nur noch in der Einstiegsklasse.
 
Zuletzt bearbeitet :
Das sind nur keine Wünsch dir was Preise, sondern relativ fundiert, nachdem die Preise für Halbleiter ziemlich stark gesunken sind in den letzten 2 Jahren. Die Konsumenten, können Nvidia auch links liegen lassen und ein paar Jahre warten.

Na klar, der ganze Elektronikkram ist in den letzten 2 Jahren ja auch so viel billiger geworden.
 
@Kruemel44
Ich sehe die Probleme ganz woanders, nämlich im Anspruchsdenken der Gamer. Früher war es das normalste der Welt, die Einstellungen im Spiel so zu wählen, das man ein Gleichgewicht zwischen Qualität und FPS findet. Daran hat sich nie etwas geändert. Das kann man bei jeder Karte.
Wenn nun aber der Anspruch ist, die maximal verfügbare Monitorauflösung 4k auf >120 Hz haben zu wollen, dann hat man gegenüber 60 Hz/1080p eine verachtfachen der Rechenleistung, benötigt mindestens den doppelten Vram und eine doppelt komplexe Geometrie, weil man sonst nicht mehr Details sieht. Sterile Landschaften wirken nicht natürlicher, in dem man die Auflösung erhöht. Die Systemanforderungen sind dadurch deutlich gestiegen - auf das Niveau preiswerter Grafik-Workstations.

Es gibt also eine Nachfrage nach Karten, die deutlich mehr können, als Früher und Kunden, die alles auf Maximum wollen.

Ich hatte letztes Jahr noch eine gtx970 und 1080p. Jetzt eben 2070 und WQHD. Damit bin ich nicht auf Maximum, aber zufrieden. Und die 2070 war auch nur wenig teurer als die gtx970.

Das RT in den Mainstream geht, da hast du recht, das war ein betriebswirtschaftliches Risiko, das nVidia nur bereit war einzugehen, weil AMD so schlecht war. nVidia konnt es sich leisten, ca. 20% ihrer Chipfläche für RT und Tensor Cores zu verwenden und trotzdem AMD in Schach zu halten.
Nun haben sie allerdings die Marktführerschaft für Raytracing, sowohl in Spielen als auch im Profibereich.

Es steht nach wie vor jedem Frei, sich preiswertere Modelle zu kaufen, die kein RT oder Tensor haben. AMD hat mit Navi genau diese Lücke gefüllt. Und das finde ich auch gut so. Das wird allerdings nach und nach unmöglich werden, denn der Leistungszuwachs und die neuen Möglichkeiten durch RT und Tensorkerne entwickeln sich schnell weiter. Karten ohne selbige findet man heute nur noch in der Mittelklasse, bald nur noch in der Einstiegsklasse.
Stimmt ja, allerdings hat man dann auch bald das Problem, das man mehr und mehr, weniger "betuchte" Kunden an die Konkurrenz verliert, ob Nvidia das wirklich will ist allerdings eine andere Frage, denn ohne die Gamer, schaut ihr Umsatz verdammt schlecht aus.
 
Vor der Krise is auch wurscht. Hatte schon Probleme mir neulich ein ordentliches Netzteil zu kaufen, war auch ein wenig teurer. Obwohl, in Taiwan haben se weniger Stress als wir hier..
 
Oben Unten