NVidia Gerüchteküche: "Super"-Turing-Upgrade bringt drei neue Nvidia-Grafikkarten ins Gespräch

Normalerweise würde man ja sagen, warte es doch ab bist Tests raus sind, bevor du deine Kritik äußerst.
warum sollen denn die anderen mit ihrer Kritik hinterm Berg halten, macht ihr rot eingefärbten bei Nvidia doch auch nicht, ganz im Gegenteil, was da Jensen u der Firma immer versucht wird unterzujubeln

wenn ich sage das Ding wird ein Rohrkrepierer , und stütze mich da auf deren vernebelte Präsentation mit der RTX2070@RTX2060 Super, und dem geschönten One Hit Benchmark(second Edition) , dann ist das mein gutes Recht

#poor Navi

AMD bekommt nun den Zaubertrank den der grüne Druide Jensen vorbereitet hat kredenzt, und der schmeckt dir nicht ,na sowas:LOL:

Wenn Nvidia die RTX2060 Super mit RTX2060 Preis released , dann kommt AMD ins Schlingern mit dem teuren 7nm Prozess Navi noch gewinnbringend zu vermarkten
 
Zuletzt bearbeitet von einem Moderator :
Und wenn andere von der Brücke springen, dann machst du das auch? Interessante, wenn auch recht naive Aussage.

Und das du berechtigte Kritik, mit deinem Gekritzel gleich stellst, zeigt halt wie wenig es dir darum geht, auf einer vernünftigen Basis zu diskutieren.

Du willst hier nur dein Gehirnblabla auskotzen. Mehr nicht. Und das zieht jeden Thread runter.

Und ich wüsste nicht, das dass verbreiten von Unwahrheiten auch nur irgendjemandes gutes Recht ist.
 
Und ich wüsste nicht, das dass verbreiten von Unwahrheiten auch nur irgendjemandes gutes Recht ist.

Weil man nicht eurem Navi Hype Train folgt ,ist das alles unwahr

Nun wir werden ja vielleicht sogar heute Nacht noch sehen, wie nah dran das war, wenn AMD nicht wieder mit seinen Unwahrheiten von Benchmarks rumzaubert und Nebelkerzen anzündet :ROFLMAO:

Sie ziehen die selbe Show ab ,wie zur R7 und wo der Heizofen letztendlich landete, ist hinlänglich bekannt , deal with it!

Auch wenn Raider jetzt Twix heißt ,weil GCN ja nunmal ein unvorteilhaftes Image anheftet , ändert das nix an der Tatsache ,das man in nem halben Jahr mit GCN... äääh RDNA Voodoo und dem schmalen R&D Budget keine Bäume mehr ausreißt

Sie habens vergeigt , und Nvidias 12nm Konter steht Gewehr bei Fuß, bevor Navi überhaupt die Bühne betritt
 
Zuletzt bearbeitet von einem Moderator :
Wo Hype ich Navi? Vielleicht solltest du mal aufhören solch einen Unsinn von dir zu geben.
Ich gebe weder Prognosen, noch Prozentzahlen ab. Genauso wie ich mich nicht einmal auf die Aussagen von AMD im Detail beziehe. Ich warte straight ab was die Test der unabhängigen Techseiten ergeben. Und vorher bewerte ich Navi gar nicht. Auch Zen2 nicht. Für mich zählen einzig die Tests und nicht was User sich ausrechnen. Weder die Pro noch die Contra eingestellten User.

Und wie lange AMD an RDNA gewerkelt hat, das kannst weißt du doch gar nicht. Aber Hauptsache erst mal so eine Aussage raushauen. Es macht dir sicher ganz viel Spaß hier so rum zu trollen. Eher traurig, das du nichts besseres mit dir an zu fangen weißt.
 
Auf igno und fertig, so eine Ansammlung von Unterstellungen, üble Nachrede und allgemeinen Schwachfug von Scully tue ich mir nicht mehr an.
 
kein Wort über den Verbrauch auf der Veranstaltung und 8+6 Pin Stromversorgung für den 7nm Zwerg, um mit einer 8Pin 12nm Karte zu konkurieren

Navi Fail.jpg

Ja das wird ein Rohrkrepierer, und Nvidia sagt dazu nur Super:ROFLMAO:


Wieder mal nur die einfallslose Brechstange ausgepackt, und das obwohl man schon auf 7nm runter ist
 
Zuletzt bearbeitet von einem Moderator :
Offenbar hab ich die Richtigen ausgeblendet...außer ohne Kontext etwas verwirrenden Anmerkungen zu Fütterungen und Tipps ist bei mir alles friedlich?
 
PASTOR
 
bis die richtigen unabhängigen Benchmarks von mehreren !!! Spielen kamen
Weil Hardwareunboxed ja auch bekannter Maßen die Nummer Eins in Benchmarks sind -.-
Wer es in 3 Jahren nicht schafft seinen Testparcour ohne klare Ausreißertitel (in beide Richtungen) aufzustellen hat nix zu Melden.
Selbst deren eigene Benchmarks untereinander verglichen sind inkonsistent.
HWUnboxed ist so ungefähr der mieseste Kanal den ich kenn.

Wobei 8+6 Pin auf ner "Brot und Butter" Karte schon seltsam anmuten.
 
225 Watt für die große Karte. Die überschüssigen 35 Watt lassen sich sicher wieder durch Untervolten wegbügeln. AMDs Power Tune hat ganz offensichtlich immer noch nicht das Niveau von Vidias Boost erreicht. Aber da geht manuell sicher noch eine Menge :)
 
Auf "Manuell" bin ich auch schon ordentlich gespannt.

Wer hat eigentlich den Job bei AMD Dellen in die Grafikkarten zu schlagen?

Die Vision von AMD mündet in der Strahlenverfolgung durch die Cloud. Könnte das Unternehmen damit meinen, dass komplexe Berechnungen dann nicht lokal, sondern als reiner Stream-Inhalt für Gamer realisiert werden? Ich kann mir nicht vorstellen, dass die Kunden für einen solchen Vorschlag überwältigende Begeisterung empfinden werden.

Die Vision teile ich mit ihnen. Entweder wir machen im GPU Bereich auf einmal einen Quantensprung oder der einzige Weg volles Raytracing Kurz- bis Mittelfristig zu erreichen ist eben eine Berechnung im Rechenzentrum.
Ich schätze die werden Stadia zum Testvehikel machen wie viel da Möglich ist. Irgendwo muss man den Rechenaufwand ja wieder bezahlen..

Volles RT, lokal und offline wird mEn noch ne gute Weile bracuhen. 7-10 Jahre sag ich jetzt einfach mal.
 
Zuletzt bearbeitet :
Die Vision teile ich mit ihnen. Entweder wir machen im GPU Bereich auf einmal einen Quantensprung oder der einzige Weg volles Raytracing Kurz- bis Mittelfristig zu erreichen ist eben eine Berechnung im Rechenzentrum.

Albernes Gerede weil man nix hat was den adaptiven Ansatz in Hardware gegossen gerecht wird mittelfristig zumindestens

Und mitunter muss u soll auch nicht alles Raytraced werden ,was Raytraced werden könnte, der Mix aus beiden Welten bringt alleine schon einen enormen Zugewinn an Grafikqualität... wo wir wieder bei adaptiv wären

Wenn sie ernsthaft erwägen dort mitzumischen , muss eine Lösung mit dedizierten Einheiten her , diese Nebelkerzen mit der Cloud und dem Inputlag des Todes ,wirken sowas von deplatziert u hilflos
 
Zuletzt bearbeitet von einem Moderator :
Sehe ich auch fast so. Alibi :(
 
30FPS @ FullHD mit ner Grafikkarte >500€ sind auch nicht mehr als eine Nebelkerze.

Lokales RT ist momentan eher so proof of concept. Mehr leider noch nicht.
Zu wenige Anwendungen (sind wir inzwischen bei 5 Spielen angekommen?), zu große Leistungseinbußen, zu hoher Preis.

Bevor nV RT lokal auf einem ordentlichen Level hat, hat Google die Cloudlösung parat.
 
Zuletzt bearbeitet :
Ein paar Gedanken:

@Affenzahn: Ein Proof of Concept ist Raytracing sicherlich nicht. Professionelle Anwender werden Dir da bestimmt widersprechen und bspw. Metro Exodus' GI auf Raytracing-Basis ist zweifelsfrei ein Mehrwert. (1) Davon völlig unabhängig ist natürlich der Fakt, dass Raytracing (genauer gesagt Raytracing als Teil eines hybriden Renderingverfahrens, das weiterhin primär auf Rasterization basiert) deutlich Leistung kostet und ebenfalls unbestreitbar ist der Fakt, dass entsprechende Titel nur langsam auf den Markt kommen, was aber auch nur das generelle Henne-Ei- bzw. Early-Adopter-Problem wiederspiegelt.
Zu "HW-Quantensprung vs. Datacenter" würde ich Dir widersprechen. Google Stadia wird auf gängier AMD-Hardware basieren (d. h. regulärem Navi) und ist bereits mit 10 TFlops Maximalleistung angegeben worden und daraufhin hat Microsoft (oder Sony; ich kann mich nicht mehr erinnern) durchblicken lassen, dass ihre NextGen-Konsole bereits über mehr Leistung verfügen wird. AMD stattet darüber hinaus Microsoft bspw. für ihre Cloud mit Blade-Systemen auf Basis von deren neuer Konsolenhardware aus, d. h. diese werden bspw. in der gleichen Art Raytracing unterstützen, wie es auch die Konsole mit deren Custom-SoC können wird (in welchem Umfang das auch immer sein mag; entsprechende Technik wird Google seitens AMD derzeit jedoch vorenthalten bleiben).
Anstatt eines Quantensprungs wird man hier voraussichtlich ein kontinuierliches Fortschreiten der Entwicklung beobachten. nVidia wird seinen Turing-Nachfolger weiterhin mit entsprechender Hardware-Unterstützung ausstatten, die voraussichtlich eine etwas gesteigerte Leistung aufweisen wird, usw. Auch AMD wird sich, denke ich, nicht allzu viel Zeit (durchaus relativ) bei der Implementation lassen, zumal man möglicherweise schon einige Raytracing-Anpassungen in den Custom-SoCs für Sony und Microsoft implementiert hat. Hier kann ich mir jedoch durchaus vorstellen, dass es auch vertragliche Auflagen von Seiten dieser Partner gibt, die AMD untersagen, entsprechende Technik vor dem Launch der Konsolen in den Markt zu bringen, da man ja auch ein paar zugkräftige Argumente für deren Verkauf haben möchte (außer mal wieder einfach nur ein simples "mehr Leistung als die Vorgängergeneration"). Wenn ich diese Überlegung mit den "vertröstenden Aussagen" von der E3 zu Raytracing kombiniere, komme ich vielleicht gar zu dem Schluss, dass man Raytracing bei AMD erst 2021 sehen wird und Navi 20, so denn diese größere Architekturüberarbeitung überhaupt für 2020 angedacht ist, möglicherweise noch eine reguläre HighEnd-GPU darstellen wird, die nVidia's Top-Chips im HighEnd-Consumer- und Workstation-Segment noch ohne hardwareunterstütztes Raytracing angreifen wird (sowie eine neue Basis für Instinct-Rechenbeschleuniger schaffen wird).

@scully1234: Ich verstehe nicht, warum Du imer was von "Navi Hype" schreibst? Kaum einer hyped hier Navi und/oder AMD. Navi ist ein Mid-Range-Produkt mit einem Fokus auf Preis/Leistung, die glaubhafteren Gerüchte haben immer konsistent in diese Richtung verwiesen und AMD hat auch nie was anderes behauptet. Schlussendlich hat AMD geliefert, was sie versprochen haben. Beide nVidia-Pendants werden im Mittel übertroffen. Wie sich der Einzelhandelspreis entwickeln wird, wird man abwarten müssen und die Leistungsaufnahme ist im Detail noch unbekannt, jedoch für viele auch weitaus weniger relevant und wird häufig in solchen Kontexten nur als zusätzliches Pseudoargument angeführt.

Die Karten werden wahrscheinlich etwas mehr Watt verheizen als nVidia's Pendants, jedoch ist das auch nicht vermunderlich, denn das Design wurde für die SoCs der NextGen-Konsolen entwickelt und deren Anforderungsprofil war hier der maßgebliche Faktor und nicht eine Auskopplung als dedizierte Grafikkarte. Letzteres ist mehr oder weniger ein "Abfallprodukt" dieser Entwicklung, was viele jedoch oft vergessen.
Gerade bezüglich der Grafiksparte ist AMD primär ein Semi-Custom-Manufacturer und konkurriert nicht direkt mit nVidia, sondern muss sich aufgrund der kleineren Größe und der geringeren Ressourcen auf gewinnträchtige Segmente spezialisieren, in denen sie auch erfolgreich sein können. Ein Angriff auf nVidia's HighEnd-GPUs nur für eine Hand voll Gamer und des Prestige wegen ist Ressourcenverschwendung und wenn man die professionellen User hinzu nimmt, hat man es in diesem Segment dennoch weiterhin sehr schwer, da CUDA sehr fest im Markt etabliert ist (hier wird auch Intel noch eine Nuss zu knacken haben).

Btw, ob es sich bei den RT-Cores von nVidia tatsächlich um echte, dedizierte Funktionseinheiten oder eher nur um ein loses Set an architektonischen Erweiterungen der SMs handel ist auch noch nicht klar, da nVidia sich hier weiterhin sehr bedeckt hält. Bei den "RT-Cores" könnte es sich auch durchaus nur um einen griffigen Marketingbegriff handeln. Das schmälert jedoch nicht den Mehrwert der architektonischen Erweiterungen; bedeutet jedoch auch, dass konkurrierende Designs für eine Raytracing-bezogene Leistungssteigerung nicht zwinged tatsächlich (echte) dedizierte Funktionseinheiten zur Verfügung stellen müssen. (Beispielsweise gehe ich davon aus,, dass die "RT-Cores" die FP32-Cores der SMs mitnutzen, was auch die nur teilweise parallele Arbeitsmöglichkeit der RT-Cores erklären würde. Man wird sehen; in vielleicht 9 bis 18 Monaten, wenn der Nachfolger raus ist, wird man ggf. etwas mehr Einsicht erhalten.)

Was mir jedoch mehr zu denken gibt in Bezug auf nVidia, ist eher der Punkt, dass man plötzlich eine Fast-2070-Leistung zum voraussichtlichen Preis einer 2060 anbieten kann, womit man wieder beim Thema Preispolitik und der enormen Bedeutung konkurrierender/alternativer Produkte im Markt ist. Ohne Konkurrenz durfte nVidia sich hier austoben und wie bei so manchen Spieleveröffentlichungen auch, sehen sich viele (Gamer) nicht in der Lage, dem einfach einmal durch eine (ausbleibende) Kaufentscheidung einen Riegel vorzuschieben.
Beispielsweise ist der TU106-410 im Worst Case nicht einmal eine echte Überarbeitung, sondern schlicht nur umgelabelt (inkl. Enfall eines A-Typs). Der Chip wird nur noch für die 2060 Super benötigt, die aktuell mit -2 SMs ansonsten der bisherigen 2070 gleicht. Falls man nicht noch einmal zu Weihnachten eine Ti-Variante mit schnelleren 16 Gbps-GDDR6 rausbringt, wäre eine Anpassung des Designs auf das schnellere Speicherinterface überflüssig (gewesen oder ist ggf. auch gar nicht erfolgt?).
Und beim teueren TU104-Chip kann man es sich nun offensichtlich leisten diesen drastisch zu kastrieren, damit man eine 2070 Super bauen kann (da diese innerhalb des TU106 nicht mehr weiter wachsen konnte) und diesen nun für den deutlich niedrigeren 2070-Preis zu verkaufen.
Wie gesagt, nVidia hätte problemlos mit anderen Mittel kontern können, die man aber marketingtechnisch nicht so "lautstark" an den Mann bringen kann, wie bspw. die Illusion, dass man etwas Neues anietet/bekommt (etwas spitz formuliert, aber in diese Richtung geht es halt).


(1) Ein größeres Problem ist wohl eher, dass etliche nur noch 4K als vermeintlich "Heiligen Gral" ansehen und in Bezug auf Raytracing diesbezüglich keine Abstriche machen wollen (kombiniert dann gleich mit dem nächsten Problemanspruch 120/144 Hz). Für viele Titel, erst recht sehr schnelle FPS-Shooter verschwendet 4K jedoch beträchtliche HW-Ressourcen, da man Pixel/Details berechnen lässt, die man gar nicht wahrnehmen kann (und wenn man stehen bleibt und mal den Ausblick genießt, erleidet man i. d. R. schnell den virtuellen Tod ;)). Beispielsweise Variable Rate Shading schlägt ja genau in diese Kerbe, denn außerhalb des Fokusbereichs des Auges (typischerweise die Bildschirmmitte bei FPS) nimmt die Detailwahrnehmung deutlich ab und wer sich mal ein wenig mit der Physiologie unseres Wahrnehmungsapparats beschäftig, wird überrascht sein, wie wenig Details wir bewußt wahrnehmen und wie viel unser Gehirn "hinzudichtet", ohne das uns das überhaupt bewußt ist.
 
Und um das Ganze noch weiter zu befeuern - hab grade das hier gefunden:
  • RTX 2080 Ti Super: neues Top-Modell, neuer Chip, VRAM unbekannt, Release unbekannt, ähnlich teuer wie RTX 2080 Ti
  • RTX 2080 Super: zwischen RTX 2080 Ti und RTX 2080, freigeschalteter Chip der RTX 2080 Ti, 11,0 GByte VRAM, ähnlich teuer wie RTX 2080
  • RTX 2070 Ti Super: zwischen RTX 2080 und RTX 2070, neuer Chip, 8,0 GByte VRAM, Preis unbekannt
  • RTX 2070 Super: zwischen RTX 2080 und RTX 2070, freigeschalteter Chip der RTX 2080, 8,0 GByte VRAM, ähnlich teuer wie RTX 2070
  • RTX 2060 Super: zwischen RTX 2070 und RTX 2060, freigeschalteter Chip der RTX 2070, 8,0 GByte VRAM, ähnlich teuer wie RTX 2060
Die "alten" RTX Karten sind dann drunter ("super" = Lat. für "über"). Bin echt mal gespannt, was da kommt. Vor allem "neues Top-Modell, neuer Chip, ..." oder "freigeschalteter Chip" klingt eher danach, dass es A-Chips gibt, die nochmal höher getaktet verkauft werden. Wobei... "neuer Chip" - :unsure:

@Admin: kann man den hier nicht mit dem "Gerüchte"-Post zum Super Refresh zusammenlegen?
 
WCCFTECH. Ich habe mit Usman vorhin gechattet. Ich traue dem noch nicht ganz. Zumal der TU104-450 existiert. Und der ist nun mal für die 2080 Super angedacht. Usman hat sich überigens bei mir rückversichern wollen, allerdings konnte ich ihm den Gefallen nicht vollumfänglich tun. Ich poste erst was, wenn ich es von meheren Quellen habe. Drei Chips kenne ich ja selbst ;)
 
Oben Unten