AMD setzt alles auf eine Karte: RDNA 4 soll NVIDIA im Mainstream-Segment den Rang ablaufen

Dann kann nVidia ab der 5080 bei komplett fehlender Konkurrenz nochmal ordentlich an der Preisschraube drehen.
Das können sie ohnehin (und konnten sie schon mit Turing, Ampere und Ada), da sie inzwischen einen software-stack verkaufen, der bisher exklusiv nur "ohne Probleme" auf der eignen Hardware läuft: "CUDA". Ist halt alles closed-source und höchst-"proprietär".
Aber klar, ich bin ja auch selber Schuld dass ich Leistung haben will und AMD allein wegen der Raytracing Nullnummer die sie regelmäßig abliefern für mich schon nicht in Frage kommen.
Schreib' Dich nicht ab, spiel Lotto!
Bisher gab es halt noch keine ausgereiften Spieleengines ohne den (hier kommt wieder das böse Wort: ) proprietären Ansatz seitens nVidia. Ist immer noch relatives Neuland. Und als ob man die peinlichen ersten Versuche auf dem Schlachtfeld "Echtzeit-Raytracing" vergessen machen - und maskieren will, daß die Konkurrenz inzwischen zumindest dort nachgezogen hat - benennt man die nächste Ausbaustufe dieses Experimentalansatzes auf einmal um zu: "path-tracing".
Kaufen, marsch marsch!
 
Es gibt keinen Markt für AMD Grafikkarten. In Foren wird von den Fanbois immer NVIDIA und INTEL in Kombination empfohlen. Vereinzelt auch ein AMD Prozessor mit einer AMD Grafikkarte.

Völlig verständlich nicht für einen nicht existierenden Markt ein Produkt zu entwickeln.

Im Niedrigpreissegment bis 600 Euro wird sich Intel und AMD den Kuchen aufteilen. Nvidia wird mit fadenscheinigen Softwaretricks weiter schlechtere Hardware verkaufen.

Das Thema habe ich heute schon auf techpowerup gelesen am Vormittag. Deshalb werde ich mir die deutsche Übersetzung bzw. den Artikeltext dazu nicht mehr durchlesen.
 
Ich möchte gerne wissen wo AMD hier die Grenze zieht.

Ok sie werden keine Konkurrenz für die eine 5090 bieten, für die 5080 auch eher unwahrscheinlich. Werden sie aber versuchen einer 5070(ti) entgegen zu treten?

-Und um welche Leistung reden wird dann? Aktuelle 4080 Leistung?
-Und wo werden sie mit dem Verbrauch landen?

Ich glaube meine 4080 ist die GPU welche ich (bis dato) am längsten behalten werde. Sollten die Gerüchte stimmen, wird Blackwell keinen größeren Effizienz-Sprung machen, sprich bei gleichem Verbrauch werde ich nicht mega viel Leistung dazu bekommen können.

Bei AMD ist Fraglich ob sie überhaupt noch etwas bringen was an die Leistung einer 4080 ran kommt und ob die dann deutlich Effizienter sein wird, ist auch fraglich.

Glaube erst bei 2/3nm Fertigung werde ich etwas erwarten können.
 
Vielleicht bist Du dann dieses eine Mal nicht Teil der Zielgruppe @arcDaniel
iirc boten sich die 7900xt, die 7900xtx und die 4080 im Handel ein Kopf-an-Kopf Rennen. Die xt hatte ähnlichen Speicherdurchsatz und kam im Rasterizing nahe dran, die xtx bot mehr Rasterizing und war um eine Nasenspitze an der rt-Leistung dran.
Keine Radeon kann so gut mit CUDA-beschleunigter Software umgehen wie die Karten des grünen Urhebers.
...spiegelte sich auch alles so im Angebotspreis/Straßenpreisverlauf wieder, bis dann die "Super"-refresh Karten kamen und preislich gleich-zogen.
 
Sie waren in der vorherigen Generation die Spitzenreiter und in der jetzigen nutzt Nvidia vor allem die sparsamere Fertigungstechnik.
Welche sparsamere Fertigungstechnik?
Es ist doch gar nicht bekannt, was NVIDIA von TSMC für den 4N-Prozess ändern ließ. Sie könnten auch eine bessere Taktbarkeit als Ziel gehabt haben, oder es war nur Marketing und es gibt keine (nennenswerten) Änderungen.
Muss ich dann 2 AMD Karten kaufen um Nividia Leistung zu bekommen? Ich weiß gar nicht ob mein Board Crossfire kann.
Macht keinen Unterschied, von AMD wurde der Crossfire-Support eingestellt - ebenso wie von NVIDIA der SLI-Support.
Man würde nur dann von einem GPU-Gespann profitieren, wenn der Spieleentwickler sein Spiel selbst dafür optimiert hätte. Das hat damals schon quasi keiner gemacht, weshalb es eigentlich immer angepassten Treiberprofile brauchte.

Also egal ob eine oder drölf 7900 XTX bzw. 8800 XT, das einzige was dabei steigen würde, wäre die Leistungsaufnahme, die FPS blieben unverändert.

Bei professionellen Anwendungen dürfte es anders aussehen, aber auch da wäre zu empfehlen erst vorher zu recherchieren ob die jeweilige Anwendung es unterstützt und davon profitiert.
 
Vielleicht bist Du dann dieses eine Mal nicht Teil der Zielgruppe @arcDaniel
iirc boten sich die 7900xt, die 7900xtx und die 4080 im Handel ein Kopf-an-Kopf Rennen. Die xt hatte ähnlichen Speicherdurchsatz und kam im Rasterizing nahe dran, die xtx bot mehr Rasterizing und war um eine Nasenspitze an der rt-Leistung dran.
Keine Radeon kann so gut mit CUDA-beschleunigter Software umgehen wie die Karten des grünen Urhebers.
...spiegelte sich auch alles so im Angebotspreis/Straßenpreisverlauf wieder, bis dann die "Super"-refresh Karten kamen und preislich gleich-zogen.
Genau, CUDA und Tensor-RT sind Quasi verschlüsselte Streams die sich auch nur Effizenz auf Nvidia Hardware ausführen lassen.
Das allein ist Grund genug, die High-End auszulassen (vorerst)

Wenn sie eine High-End GPU auf der höhe von einer 4090 rausbringen, wird die weit mehr Hardware benötigen als NVIDIA.
Dann einen höheren Preis aufzurufen, ohne Merklich zu überholen, dann würde AMD Pleite gehen. ;)

Sie sollen besser die SoC KI nutzen, um Effizienz und Leistung zu steigern. (iGPU+dGPU)
Damit haben sie sogar schon Erfahrung. ;)
 
Mir hat der Gedanke, durch zusätzliche Grafikchips im Zeitverlauf meine GPU-Leistung nach Bedarf anzupassen, immer sehr gefallen. (nicht zuletzt deswegen habe ich früher gerne 2- und 3-fach SLI Gespanne gebaut. Wie wir ja alle wissen, hat sich dieser Ansatz wegen diverser Probleme nicht durchgesetzt.

Heute sind die GPU-Hersteller versucht, uns ihre jeweils aktuellen Boliden als "Top-of-the-line-Lösung" zu verkaufen, die dann mit der nächsten Generation - teilweise künstlich veraltet - ist.

Für die Zukunft würde ich mir wünschen, es würde wieder nachhaltiger mit Ressourcen und dem Geld der Kunden umgegangen und auch Möglichkeiten von Nachrüstungen gegeben. Ich stelle daher mal die Frage in den Raum, warum es in der heutigen Computerwelt nicht machbar sein soll, Technologie bereitzustellen, die wirksame und wirtschaftlich sinnvolle Nachrüstungen ermöglicht. Ich meine, die GPU-Hersteller arbeiten teilweise mit zusammengeschalteten Chiplets (man möge die High-Level Sicht entschuldigen) um so leistungsfähiger zu werden. Warum wird so etwas nicht in ein PC-Design gegossen und anstelle der einzelnen Steckkarten rüste ich Chiplets nach. So wie RAM für die CPU. Und das dann so durchdacht, dass es eben wirkliche Leistungssteigerungen gibt. (zwei GPU-Chips gleicher Qualität und Güte sind dann eben auch in der Praxis doppelt so schnell).

Mir ist klar, dass das heutige PC-Design das nicht hergibt, aber vielleicht kann die Industrie ja mal "vom Ende her" denken. Ich selbst fände es großartig, einen PC zu haben, den ich über viele Jahre leistungsmäßig - je nach aktuellem Bedarf - technisch wirksam und kostenseitig angemessen - erweitern kann, anstelle alle paar Jahre Elektroschrott durch Austausch und Wegwerfen alter und nicht mehr "state-of-the-.art" Hardware zu produzieren.
 
Moin,
@carrera vom Ansatz her stimme ich dir voll und ganz zu. Leider ist da der Elefant "Datenverbindung" im Raum. Der Großteil der Energie wird beim Verschieben der Daten verbraucht.
Da ist der aktuelle Ansatz schon recht nah an deinem Wunsch mit austauschbaren CPU/GPU/RAM etc. pp. um lokal effizient zu sein, aber bei Chiplets, vor allem GPU, braucht man laut AMD mörderisch viele Verbindungen und das ist dann wieder wirtschaftlich nicht realisierbar (Gamers Nexus hatte ein Interview mit einem Top-AMD Mitarbeiter über das Thema geführt). Es hat schon seinen Grund warum AMD bei der aktuellen GPU-Genration die Chiplet-Variante gestoppt hat (laut Gerüchten).
Gruß Beschi
 
Es ist natürlich schade, dass AMD nicht mehr auf höchstem Niveau konkurrieren kann, aber Nvidia hat anders als Intel vieles richtig gemacht und sich nie ausgeruht, sondern immer weiter geforscht und auch strategisch richtige Zukäufe (Mellanox) getätigt.

Es ist nur folgerichtig, dass sich AMD jetzt auf andere Marktsegmente konzentriert, die Nvidia vernachlässigt, da muss dann die Menge die knappe Marge kompensieren.

Eine performante Einsteiger GPU, die nicht total beschnitten ist, für 199 EUR dürfte weggehen wie warme Semmeln, AMD braucht einen GTX 1060 Moment.
 
Der Zeitpunkt ist vielleicht sogar ganz geschickt, da mangels neuer Konsolengeneration vorerst kein Sprung in Sachen Hardwareanforderungen bei den Spielen zu erwarten ist. Lediglich RT könnte Dank PS5 Pro weiterzulegen, aber genau da soll 8000 ja punkten. Für mich persönlich trotzdem bescheiden, da ich von meiner 3090 endlich auf eine High-End 4K Karte upgraden möchte und lieber Konkurrenz zur 5080 oder sogar 5090 gesehen hätte. So bleibt nur die Konkurrenz durch Nvidia selbst (ältere vs. neuere Gen).
 
Eine 199,- Gpu in 2024?
Mal abgesehen von ebensolchen beschnittenen Brotkrümeln von vorgestern (navi23, ga106+ga107) fehlt mir hier ein wenig der Glaube.
Und low-end Systeme wurden inzwischen leider durch Mini-PCs ersetzt. Also nixmehr mit 39,- notfall-GPUs aus dem Handel. Die Konsequenz: Wer heutzutage eine CPU ohne Grafikeinheit für sein Haptsystem holt baut entweder einen Threadripper oder ist schlecht beraten worden!
 
Und die ganzen Intel mit F hintendran, die man so gerne in Kaufhaus-Fertig-PCs bestaunen kann.
Die haben diese Unsitte ja bereits zur Kultur befördert und bieten Unverschämtheiten wie 13900KF zum Kauf an. Aber hey: wenn es dumme Kunden gibt, braucht man keine schlauen Produkte!
 
Eine 199,- Gpu in 2024?
Mal abgesehen von ebensolchen beschnittenen Brotkrümeln von vorgestern (navi23, ga106+ga107) fehlt mir hier ein wenig der Glaube.
Und low-end Systeme wurden inzwischen leider durch Mini-PCs ersetzt. Also nixmehr mit 39,- notfall-GPUs aus dem Handel. Die Konsequenz: Wer heutzutage eine CPU ohne Grafikeinheit für sein Haptsystem holt baut entweder einen Threadripper oder ist schlecht beraten worden!
Was spricht denn dagegen, irgendeine alte GPU für Notfälle einzubauen?
nur weil es keine top aktuelle GPU ist?
 
Ich verstehe ja deine Intension, als Leihe ohne Ahnung nen fertig PC zu kaufen ist da vermutlich schon der erste Fehler
 
Ich verstehe ja deine Intension, als Leihe ohne Ahnung nen fertig PC zu kaufen ist da vermutlich schon der erste Fehler
Also, um das nochmal aufzuschlüsseln:
Dir stirbt die teure GPU weg - dann lag bis vor knapp 3,5 Jahren innerhalb eines Tages eine r5 240 oder gt710 in Deinem Postkasten für vernachlässigbare Kosten von unter 40€. Fehlerdiagnose war FÜR JEDEN Nutzer so schnell und einfach möglich. Bürokram am Hauptsystem erledigen sowieso. Das ist mit der Krypto-blase quasi entfallen. Rx550 und co wurden mit Gold aufgewogen und abverkauft.
Was existiert da heute in dem Bereich?
 
Also, um das nochmal aufzuschlüsseln:
Dir stirbt die teure GPU weg - dann lag bis vor knapp 3,5 Jahren innerhalb eines Tages eine r5 240 oder gt710 in Deinem Postkasten für vernachlässigbare Kosten von unter 40€. Fehlerdiagnose war FÜR JEDEN Nutzer so schnell und einfach möglich. Bürokram am Hauptsystem erledigen sowieso. Das ist mit der Krypto-blase quasi entfallen. Rx550 und co wurden mit Gold aufgewogen und abverkauft.
Was existiert da heute in dem Bereich?
Echt gute Frage.
Habe mal bei Amazon geschaut, da gibt es für 50€ die älteren GPUs wie GT730 und HD6770. Für Windows 10/11 aber leider nicht mehr zu gebrauchen.
Am ehesten wäre es eine GT1030 für so 75€.
Gebraucht geht immer billiger, aber da weiß man ja auch nicht, ob die nicht selbst kaputt ist :rolleyes:
 
NUR MEINE MEINUNG:

Ich habe große Zweifel, ob diese strategische Ausrichtung von AMD von Erfolg gekrönt sein wird. Ja, ihre bisherigen Versuche, ganz oben mitzuhalten, waren bisher auch nicht von dem Erfolg signifikanter Marktanteile gekrönt, Aber dem "Markt" zu erklären, dass er nun ein Mittelklassemodell von AMD und nicht von Nvidia kaufen soll, wird auch nur über den Preis und gleichzeitig beste Performance eben in diesem Preissegment gehen. Die spannende Frage wird sein, ob das jemand technisch hinbekommt, der keine High End Performance hinbekommt. Da habe ich meine Zweifel.

Das müsste man nämlich ohne die vor allem fürs High End erforderliche Technologie- und Innovationsführerschaft hinbekommen. Und nur der etwas Neues entwickelt, hat die Chance das Neue wie er (oder der Kunde) es für sinnvoll hält, einzusetzen.

Nicht vergessen: dass Nvidia heute im Enterprise Segment so dermaßen erfolgreich ist, liegt zum Großteil nicht daran, dass sie die heutigen Einsatzgebiete von Anfang an groß geplant hätten, sondern nur daran, dass ein paar schlaue Köpfe irgendwann so 2011-2012 auf die Idee kamen, dass sich die Technik der GPU wunderbar für Maschine/Deep Learning einsetzen lässt. DANN hat Nvidia sehr schnell begriffen, welche Goldgrube da liegen kann und sehr clever "an den richtigen Werkzeugen gearbeitet, um das Gold zu schürfen" (um mal im Bild zu bleiben).

Und dass es dazu kommen konnte, lag ausschließlich daran, dass sie schon sehr früh ca. 2006 ihre GPUs mit CUDA eben grundsätzlich für andere Einsatzbereiche als Gaming geöffnet haben. Bis zum AI Hype (der quasi mit DL/ML begann), war Nvidia zwar schon im Enterprise-Segment bekannt, aber bei weitem nicht mit der heutigen Dominanz.

Was will ich nur sagen: AMD hatte im Bereich GPUs bis heute keinen vergleichbar großen technologischen Geistesblitz, sondern läuft eigentlich seit Anbeginn der Zeit technologisch hinterher. Was nicht heißen soll, dass sie auch ab und an mal sehr gute GPU-Technik herausbringen, aber in Sachen spannende Features ... wer zuerst kommt, mahlt halt zuerst. Und NVIDIA mahlt eben leider schon lange nicht nur zuerst sondern auch ziemlich gut & gründlich.

Ich wünsche mir definitiv, dass der Plan von AMD aufgeht. Aktuell geht das in meinen Augen ausschließlich über den Preis und das funktioniert nur temporär zur Erreichung von etwaigen Zwischenzielen (und so haben sie es ja zum Glück auch bisher ausgerufen). Will man hingegen irgendwann wieder zur Spitze aufschließen (bittebittebitte!), ist das auf Dauer aber kein tragender Ansatz. Auch wird man ein einmal etabliertes Image als Billigheimer nur schwer wieder los...

Ich drücke also die Daumen, rechne aber nicht damit, dass AMD in den nächsten 4 Jahren wieder ein Modell herausbringt, dass zu den kommenden NVIDIA Spitzenmodellen in Schlagdistanz sein wird. Und da Nvidia bescheuert wäre, die - nun mit offizieller Ansage! - fehlende Konkurrenz nicht maximal auszuschlachten, werden das für mich und all diejenigen, die eher auf die Leistungsspitze schielen, im Zweifel preislich sehr bittere Jahre...
 
Oben Unten