Frage RDNA 3 vs. Ada Lovelace: Was ist AMDs größtes Defizit gegenüber NVIDIA?

rorian

Neuling
Mitglied seit
Jan 24, 2023
Beiträge
7
Bewertungspunkte
2
Punkte
1
Mal eine Frage in die Runde an wirklich alle:

AMD ist immernoch gigantisch weit hinter Nvidia was den Absatz angeht, das mag zum einen am Image oder dem Marketing liegen.

Aber was würdet ihr für euch sagen, ist der Grund Nvidia zu kaufen und nicht AMD. Ist es das bessere Raytracing, die bessere Effizenz per Watt oder die Treiber? Was hat euch bewegt Nvidia oder AMD zu kaufen?



Ich für meinen Teil nutze seit ca. 2 Jahren ausschließlich Linux, und auch wenn Nvidia mittlerweile deutlich besser unter Linux läuft, würde ich auch aktuell immer zu AMD greifen. Ich hatte zuvor eine Nvidia GTX 1080 und bin dann auf die AMD 6700XT gewechselt und habe dies auch nie bereut. Die Treiber, waren für mich immer stabil und da gab es eigentlich nie Probleme für mich.
RDNA 3 werde ich vor allem aussetzen, da ich mir von der Raytracing Performance etwas mehr erhofft hatte, obwohl ich damit sicherlich leben könnte, aber was mich vor allem am meisten stört ist die schlechte Effizienz der Karten gegenüber Ada Lovelace.
Das was AMD gegenüber Intel im CPU Segment deutlich besser macht, ist im GPU Segment leider anders herum. Ich habe das Gefühl, dass AMD den Leistungsgap in dieser Generation einfach mit mehr Strom erschlagen hat.

Bin gespannt auf eure Sichte der Dinge! :)
 
Zuletzt bearbeitet :
Willkommen rorian
AMD ist immernoch gigantisch weit hinter Nvidia was den Absatz angeht
Wenn man sich die Entwicklung anschaut, sieht es eigentlich noch bedenklicher aus. Man hat AMD seit 30 Jahren als kleine aufstrebende Firma im Kopf die sich langsam hoch arbeitet. Das passt aber nicht mehr zu der Entwicklung der letzten 15 Jahre. Zwischen 2004 und 2006 erreichte AMD bei Desktop-CPUs sowie Grafikkarten zeitweise etwa 50 % Marktanteil. Da verkaufte AMD gleich viele CPUs wie Intel und gleich viele Grafikkarten wie Nvidia. Dann ist der Marktanteil immer weiter gesunken. Bei den Desktop-CPUs sieht es für AMD aktuell wieder gut aus. Bei den Grafikkarte sackt es aber immer weiter ab so dass sie jetzt in der Nähe des wirklichen Einsteigers Intel herum dümpeln.

Somit muss die Frage heissen, warum AMD bei den Grafikkarten vom früheren Gleichstand dermassen zurück gefallen ist.

Einen Fehler sehe den AMD in den letzten Jahren gemacht hat (auch wenn das nicht die ganze Entwicklung begründet). Jahrelang hat Nvidia sich auf die Mittelklasse, den Highendbereich und den professionellen Bereich konzentriert. AMD hat dagegen günstige Karten für die vielen kleinen Gamer angeboten. Mit dem Miningboom ist AMD auf den Mining-Zug aufgesprungen. Im tiefen Preisbereich (80.- bis 300.-) haben beide Hersteller nichts mehr auf den Markt gebracht. Nun ist der Miningmarkt auf dem man alles absetzen kann was Leistung hat eingebrochen.

Um Grafikkarten im professionellen Bereich abzusetzen braucht man zuverlässige Treiber. Bei Nvidia ist man da auf der sicheren Seite während es bei AMD Glücksache ist ob die gewünschte Anwendung läuft. Bei den Games sieht es etwas besser aus, aber auch da werden von Nvidia mehr Games zuverlässig unterstütz. RTX ist da natürlich auch ein Argument für diejenigen die das mögen.

Zusammen gefasst hat AMD seinen angestammten Kundenstamm (Gamer mit kleinem Budget) vernachlässigt und im Highendsegment nur teilweise Fuss gefasst. Dank dem Miningboom hat man das nicht so gemerkt, aber nun rächt es sich.
 
Technisch ist NVidia sicher ein Jahr vorne, die sind in RT und Effizient deutlich besser. Aber der Treiber ist in der Win XP Ära hängengeblieben und ist ein schlechter Witz. Dafür ist der technisch aktuelle Treiber von AMD gerne mal abgestürzt.

Für die letzten AMD Generationen sicher ein mega Vorteil war, dass man per MPT oder Bios Flash sich die Karten fast beliebig tunen konnte und aus braven Karten wahre Monster generieren konnte, die es dann jenseits von RT mit NVidia bei schlechterer Effizienz dennoch aufnehmen konnten. AMD Karten Tunen war ein Heidenspaß und Hobby für sich. Bei NVidia ist das hingegen gähnende Langeweile.
 
Bitte messt nicht immer den Treiber mit dem GUI. Je mehr optischer Firlefanz drumrum kommt, umso mehr Overhead und Fehler schleichen sich zusätzlich ein. NV hat auch so eine bunte Bruchbude, die man aber Gott sei Dank nicht mit installieren muss.
 
Da kann ich euch nur quasi bei allem zustimmen.

Erwartet ihr, dass AMD mit der nächsten Generation, wenigstens das RT Niveau von NVidias aktueller Generation erreicht? Werden sie dann ihre eigenen KI Cores haben?

Ich würde mir vor allem eine deutlich Effizientere Generation von AMD wünschen, da das vor allem für viel weniger unnötige Abwärme sorgen würde, und umsonst ist das gute Zeug ja auch nicht gerade in letzter Zeit.
 
Disclaimer: Ich verstehe diese Diskussion bezüglich AMD vs. NVidia nicht so ganz. Deshalb werde ich einfach meinen eigenen angerührten Senf dazugeben. Neben den üblichen Zutaten im Senf werden auch noch eine gehörige Portion Erfahrung, anekdotischer Evidenz und auch Psychose mit einfließen. Also ein IMHO mit Verschwörungen und Echsenmenschen.

Warum der Absatz bei AMD geringer ist als bei NVidia lässt sich nicht einfach erklären, da sehr viele Faktoren eine Rolle spielen. Ein nicht unerheblicher Teil lässt sich aber mehr oder weniger auf "Hörensagen" zurückführen. Ich will damit nicht sagen, dass AMD perfekt ist, jedoch wird auch vieles aufgebauscht. Faszinierenderweise stürzt man sich bei AMD bei jedem kleinen Treiberproblem direkt drauf ohne Rücksicht auf Verluste, während man bei NVidia sehr wenig bis fast nichts bezüglich Treiberprobleme hört auch wenn diese definitiv vorhanden sind. Viele vergessen auch, dass die Beeinflussung von Meinungen ein Teil des Marketings ist und viele Unternehmen massiv Geld dafür ausgeben ihre Produkte positiv dastehen zu lassen und die Konkurrenz eben nicht. Wo das Bild herkommt, dass AMD soooo viel schlechter ist als NVidia, erschließt sich mir absolut nicht wenn doch die Benchmarks ein anderes Bild ergeben. Ebenso faszinierend finde ich, wenn ich mich mit Leuten unterhalte die noch nie eine AMD Karte eingesetzt haben, diese sofort die Treiberprobleme als Hauptargument anführen. Und als zweites Argument kommt die Raytracing Performance. Schaut man in die Kommentare wenn es um ein AMD Problem geht, bekommt man aber einen Eindruck wohin die Reise geht. Solche Diskussionen und Argumentationsbildung findet man auch im psychosozialen Kontext wenn es um gesellschaftliche Themen geht. Es geht darum wer das stärkere Lager hat. (Nur meine psychotische Meinung). Und Influencing. Dabei übersehen auch viele, dass die Unternehmen an sich keine "Feinde" sind. Es gibt sehr viele Absprachen und auch Technologieaustausch wo wir keinen Einblick drin haben. Grade deshalb ist dieses Lagerdenken vollkommen überflüssig.

Wenn ich versuche es objektiv zu betrachten sehe ich durchaus den Punkt, dass AMD in den letzten 15 Jahren viel an Glaubwürdigkeit verloren hat. Sei es die Bulldozer Problematik, ineffiziente Hardware oder tatsächliche Treiberprobleme in früheren GPUs. Das wirkt noch nach. Dies kann aber nicht der wahre Grund sein, warum AMD bei so vielen potentiellen Käufern durchfällt. Der gemeine Käufer hat selten so ein langes Gedächtnis, denn sonst würde keiner bei H&M oder Burger King was kaufen.

Ebenso der aktuelle "Skandal", dass AMD wohl bei den Partnerprogrammen DLSS blockiert. Sollte dies stimmen, ist es ein recht schwarzer Fleck auf AMDs Weste. Aber auch da müssen wir abwarten bis etwas verwertbares kommt.

Aktuell ist ja der Tenor, dass man sich mit einer AMD Grafikkarte eine Beta-Hardware ins Haus holt und man ca. 1 bis 2 Jahre Treiberupdates warten muss bis es funktioniert. Das ist an den Haaren herbeigezogen und nicht nachvollziehbar. Ebenso geht aktuell das Gerücht rum, dass ein Ingenieur von AMD mal gesagt hätte, dass die 7xxx Reihe theoretisch die 4090 schlagen könne jedoch die Effizienz so schlecht ist, dass noch nicht einmal ein Treiber das beheben könne... Keine Ahnung wo das herkommt und es wirkt wie konstruiert.

Ich persönlich kann nur sagen, dass diese Diskussionen, welcher von Beiden besser ist, eigentlich obsolet sind da sich keiner von Beiden mit Ruhm bekleckern kann. Ich für meinen Teil wechsle immer wieder den GPU-Hersteller, je nachdem welches P/L Verhältnis für mich grade das Beste ist. Ich zocke. Hat es für mich einen Vorteil, dann her damit.

(Achtung Rant) Und zum Thema Raytracing-Performance kann ich nur folgendes sagen: Touch Grass. Die Performance von Raytracing ins Feld zu führen um einen Sieger zu kühren ist in meinen Augen absoluter Blödsinn und geht wieder in Richtung Lagerdenken und Elitarismus. Bis heute habe ich noch kein einziges aktuelles Spiel erlebt, welches tatsächlich von Raytracing profitiert. Oftmals sind es nur Reflexionen die etwas besser aussehen, von denen aber nicht genug vorkommen um sie im Eifer des Gefechtes überhaupt wahrzunehmen. Und wenn sie vorkommen, sind sie noch nicht einmal genau genug um als realistisch zu gelten. Nicht ohne Grund wurde ein Spiel von 1997 (Quake 2) als RTX Showcase gewählt um akkurate Beleuchtung darzustellen und dann doch einzusehen, dass sich dies nicht in aktuelle Spiele übertragen lässt. Also erspart mir dieses Argument. Ich opfere keine 1% Frametimes um ein paar verirrte Strahlen zu beobachten. (Rant Ende)
 
Wie gesagt kann ich mich mit meiner Sapphire 6700 XT Nitro nicht beschweren. Raytracing war für mich beim Kauf damals auch kein Argument, heute schiele ich etwas auf das kommende Addon zu Cyberpunk und würde das gerne dann auch mit Max Details und Raytracing spielen wollen, auch wenn der optische Unterschied zwischen High Details vs. Max. + Raytracing vermutlich wie du schreibts kaum wahrnehmbar sein wird.

Ich selbst hatte für mich eigentlich schon im Kopf die Meinung abgelegt, dass Pathtracing das Ziel ist und dazu sind, wie man aktuell sieht, auch alle aktuellen Hard-/-Software Lösungen zur Berechnungen eh noch zu schwach, auch bei NVidia. Wenn es in 5-10 Jahren Hardware gibt die massentauglich stark genug dazu ist echtes Pathtracing darzustellen, dann ist theoretisch (und wohl auch praktisch), alles was bis dato mit Raytracing so gemacht wurde vollkommen irrelevant.

NVidia hat es mit der RTX 2000er Generation jedoch geschafft per Marketing in den Köpfen einen Wunsch danach zu kreieren. Auch bis heute sind, wie du bereits schreibst, die optischen Unterschiede meist kaum nennenswert, dennoch ist in den Köpfen die hypothetische Möglichkeit auf ein Spiel (welches es bis heute nicht gibt!?), welches dadurch wahnsinnig gut aussieht, alleine Grund genug, dies als gewichtiges Kaufargument zu werten. Wahnsinn!?! (Und Respekt an das NVidia Marketing)

Genau selbiges habe ich auch im Freundeskreis beobachtet und wenn ich heute danach frage, ob sie RT mal wirklich genutzt haben mit ihrer RTX 3080, dann ist es wirklich nur ein Kumpel, der es bei Cyberpunk an hatte. Es ist also faktisch bis dato auch für diese Leute in aller Regel irrelevant.

Die meisten Leute sind auch kaum risikobereit(wenn diese Begrifflichkeit hier überhaupt angebracht, noch passend ist?!) und haben quasi schon immer NVidia gehabt. Never change a running system. Wenn mann nicht Käufer der ersten Stunde ist bei einer neuen Generation, ist man damit wohl auch immer gut gefahren, aber wenn man ehrlich ist, gilt dies auch für AMD.
Auch NVidia hatte in der Vergangenheit gute und weniger gute Generationen und das "große" Treiberproblem bei AMD ist auch nicht in jeder Generation bis heute evident.
Meine letzte AMD Karte vor der 6700 XT war eine HIS Radeon HD 6950 IceQ X Turbo 2GB GDDR5 und die lief bis zum Upgrade auf eine neue Karte damals perfekt.

Wir konstantieren also, es ist viel Psyche und oft weniger handfeste Argumenation, die zu einer Kaufentscheidung führen als man denk!?

Danke für deinen lesenswerten Beitrag @RichardPickman
 
Was ist das Defizit von RDNA3 gegenüber Ada Lovelace?

Mal meinem Erfahrungsstand von den letzten Grafikkarten RX6800XT --> RTX4070 (nur Kurz) --> RTX4080, sowie dem lesen von Reviews:

Zur Ampere Zeit empfand ich Nvidia noch immer nicht stark genug bei RT, dass es für mich praktikabel gewesen wäre. Vor DLSS2.3 empfand ich die Qualität von DLSS nicht bemerkenswert. Also stand für mich das Preis-Leistungs-Effizienz- Verhältnis vorne, sowie die Linux Unterstützung. Also ganz klar eine AMD 6800XT, hätte niemals eine Ampere gekauft. Leider war es AMD mit einer Generation nicht möglich den Markt um zu krempeln.

Jetzt Ada Lovelace ist eine ganz andere Geschichte: deutlich bessere RT Leistung (jetzt wirklich Praktikabel), sehr Effizient, DLSS2.3+ sieht sogar im Performance Modus super aus (hier kann FSR2 absolut nicht mit halten), und als Sahnehäubchen kommt noch Framegeneration als DLSS3 Feature dazu. Linux Unterstützung wird immer besser, aber leider noch immer nicht opensource. Nicht vergessen --> ABSOLUT überteuert.

Was bietet AMD dagegen? Schlechtere Effizienz (eine 7900XT verbrät 15% mehr Strom bei 25% weniger Leistung als eine RTX4080), RT Leistung nur im Bereich von Ampere (was ich davon halte hatte ich ja schon geschrieben), FSR2 ist nur als Notlösung zu betrachten, wenn nix anderes da ist (Intel XeSS fast immer überlegen), FSR3 angekündigt und seither kein Wort mehr dazu (sogar Starfield mit AMD Partnerschaft bekommt nur FSR2). Unter Linux klappt auch noch nicht alles (also Stock super, aber Anpassungen von Takt, PT usw hakt es noch). Die Positiven Dinge sind mehr VRam, Preis angenehmer als bei Nvidia.

Also für jemand, welcher wirklich zwischen AMD und Nvidia hin und her wechselt (Könnte man an meinem Grafikkarten curriculum vitae raus lesen), muss ich einfach sagen, dass im Moment AMD die Nase klar vorn hat. AMD hat es leider noch nicht geschafft über mehrere Generationen Konstant ein richtiger Gegenspieler zu bleiben und so Nvidia den Markt streitig zu machen.
 
Wir konstantieren also, es ist viel Psyche und oft weniger handfeste Argumenation, die zu einer Kaufentscheidung führen als man denk!?

Ja. Das ist worauf ich hinaus wollte. Es ist einfach menschlich sich einer Gruppe anzuschließen und sich sicher fühlen zu wollen. Es muss dabei nicht mal nur ums Leben gehen, sondern um Akzeptanz und Aufnahme. Und das wissen Konzerne, oh sie wissen es seit soooo vielen Jahrzehnten. Wir hier in diesem Forum, also die meisten von uns, haben eine gewisse Kenntnis von der Hardware und auch Erfahrung damit. Wir wissen ansatzweise wie wir damit umgehen können. Wir kennen die Quirks und Kinks, die Vorteile und Nachteile, wir haben uns eingelesen. Wir haben sie ausprobiert, sogar in unterschiedlichen Umgebungen. Experten sind wir nicht. Hier läuft das Leben etwas anders. Wir beschäftigen uns mit Kleinigkeiten über welche sich sonst jemand kaum Gedanken machen würde.

Mich erinnert das ein wenig an meine Schulzeit. Levis. Wer keine anhatte wurde in der Pause verprügelt. Diesel Jeans waren übermächtig und haben sich das Levis vs. billig geklatsche von oben herab angeschaut und auch teilweise gesteuert. Insbesondere waren das Ziel die Träger von Wrangler Jeans. Keiner hat sich Gedanken darum gemacht, welche Jeans jetzt aus welcher Fabrik kam, welche eine bessere Qualität hatte, wo der Stoff besser behandelt wurde, wer eine feinere Faserdichte hatte... uvm. Es ging einfach ums Prinzip.

Ich hoffe es wird das Konzept klar auf welches ich anspielen möchte. Oder ich drücke es einfach mal platt aus: Der normale Nutzer ließt sich nicht vorher ein. Er verlässt sich.
 
Oben Unten