AMD setzt alles auf eine Karte: RDNA 4 soll NVIDIA im Mainstream-Segment den Rang ablaufen

Ja, die high-end Gemeinde wird den "Preisdrücker AMD" für die kommenden 12-18 Monate sicher sehr vernissen.
Und Intel hat ja mit sienen Arc auch bewiesen, daß man selbst einen "Angriff von unten" kaum aus dem Stegreif hinbekommt. Schon erstaunlich, daß man mit großem Marketing allein kaum ein den Kunden ansprechendes Produkt auf die Reihe kriegt.

Mal ehrlich: Wenn die grünen Steckkarten nicht so wichtig für deren CUDA-Ökosystem wären, müßten die eigentlich garkeine Geforce-Produkte mehr herstellen. Und alle anderen hätten gerade echt gerne dieses "Problem".
Nvidia ist inzwischen halt das Apple des gpu-Compute. Jeder will es, kaum ein anderer "kann es".
 
"Brauchen" tun sie das Gaming-Segment gerade nicht. Aber wer weiß, wie lange der Hype noch anhält und dann kann es sich durchaus sehr schnell lohnen, wenn die Produktpalette nicht nur ein Marktsegment anspricht. Außerdem wäre man ja doof, die Umsätze (und vor allem den Gewinn) liegen zu lassen. Früher war halt Enterprise die kleine hässliche Schwester, jetzt ist's halt Gaming - und trotzdem kann Nvidia beide liebhaben, wenn sie doch beide grüne Kleider tragen. ;)

Zu Intel: ich hoffe sie bleiben am GPU-Ball. Die halte ich technologisch grundsätzlich sogar eher für in der Lage, langfristig was Konkurrenzfähiges rauszubringen, als AMD. Die waren jedenfalls in der Vergangenheit immer mal wieder in der Lage, grundlegende Innovationen auch außerhalb des CPU-Bereichs zu entwickeln. Ob das noch so ist, wird allerdings auch nur die Zukunft zeigen...
 
Es ist natürlich schade, dass AMD nicht mehr auf höchstem Niveau konkurrieren kann, aber Nvidia hat anders als Intel vieles richtig gemacht und sich nie ausgeruht, sondern immer weiter geforscht und auch strategisch richtige Zukäufe (Mellanox) getätigt.
Ne das stimmt so nicht ganz, AMD kann bei CUDA und Tensor-RT nicht mithalten weil es nur auf Nvidia Hardware Compiliert wird...also genau das was Intel seit Jahren mit AMD macht.

Rasterleistung und HDR10+ sind immer noch AMD Gebiet.
 
Zuletzt bearbeitet :
Multi-Chiplet-Design, die effizientesten Gaming GPUs die sogar in CPUs passen, offene Standards die Gaming als ganzes weiterbringen, Marktführer in Gaming Hardware,...

Sorry, aber die letzten Posts lesen sich wie eine Circlejerk-Blase der anonymen Nvidier.

Die Reduzierung von Grafikkarten auf Tensor-Cores schadet bei der aktuellen Hardwareverteilung dem Gaming:
solange nicht alle Notebooks, Handys, Macs, standalone VR-Headsets, Konsolen etc. ausreichend Tensor-Cores haben, bleibt es eine Spielerei für maximal 3% der Gamer und uninteressant für Entwickler und Engines. Neue Technologien haben natürlich alle mal kein angefangen und müssen hochgepusht werden um sich breit durchzusetzen: aber es ist eben keine neue Standardtechnologie, denn es ist proprietär zu einem Hersteller und kann sich so niemals durchsetzen. Und daher hält übermäßige Investition darin (angekurbelt von KI-Geld des Herstellers) die Entwickler von allgemeiner technischer Weiterentwicklung und Innovation theoretisch ab.
Ein offensichtliches Gegenbeispiel ist freie Technologie wie FSR: dies pusht Spiele auf Switch, Android, Apple, Konsolen.
In kurzer Zeit hat sich also FSR so verbreitet das fast alle Gamer davon proftieren und somit Gaming als Ganzes voranbringen.
Nichts davon hat bisher proprietäre Technik geschafft, wie beispielsweise DLSS - es bleibt eine Sackgassentechnoligie (unabhängig davon wie gut/schlecht es ist).
 
denn es ist proprietär zu einem Hersteller und kann sich so niemals durchsetzen.
so weit die Theorie. In der Praxis macht nVidia seit mehr als einem Jahrzehnt dick Geschäfte. Der Rubel rollt –ähem– nein nicht der russische (hoffentlich, und wenn dann bitte in das Kellerloch nach ganz unten zu den Ratten!)

CUDA ist King!. Wenn so eine proprietäre blackbox von aller Welt und jedermann "quasi-zwingend" Verwendung findet, dann nennt man auch das: "Industrie-Standard". Und das hat dann mit einem dem Duden nach "offenen Standard" tatsächlich nichts mehr zu tun. Der Zug ist abgefahren, so lange es nichts gibt, das diesem so deutlich die Rücklichter zeigt, daß die Popularität des "first movers" sich auf natürlichem Wege zu einem anderen Honigtopf hinwendet. Und das sehe ich bisher nicht. Denn Technologien dieser Art sind komplex und brauchen Jahre und viele fleißige Bienchen, bis sie so weit sind, ernst genommen zu werden. Zeit und Geld, das auf der dunkel-grünen Seite der Macht bisher mindestens aufgewogen wenn nicht um das Vielfache übertrumpft wurde. nVidia mag der Gier fröhnen wie jedes gesunde börsennotierte Unternehmen, jedoch bescheuert waren Jensen und Co. bisher sicher nicht.

Als AMD dann mit rdna und cdna die Trennung von gaming und compute bekannt gab, hüpften viele Lageranhänger im Kreis: "Endlich wieder mehr Focus auf gaming"! Was hat es gebracht? nVidia konnte seinen Technologie-Vorsprung ausbauen und die Weltherrschaft - die sie bereits innehielten - konsequent ausbauen. Worauf lernt man das Ökosystem? nVidia-powered Laptops und "günstigen" gaming-Karten. Worauf wird entwickelt und Prototypen aufgesetzt? Auf den passend aufgebohrten high-end RTX-Karten derselben Serien. Worauf läuft 80% der Produktiv-Software für den Worstation-Einsatz abseits von Office&Co? Auf CUDA!

Mit Hawaii und Vega / GCN war AMD vielleicht noch (ein kleiner) Teil des Gespräches, mit rdna saßen sie in einer von Sony und Xbox finanzierten Sackgasse! Aber immerhin brachte dies die imho "No.1 Innovation" im Gaming-Markt der letzten Jahre hervor: das Valve SteamDeck!

Wenn die Firma jetzt verkündet, daß sie rdna und cdna wieder "unter ein Dach" zusammenfügen wollen ("UDNA"), dann ist das in meinen Augen der einzig richtige Weg. Denn high-end Käufer wollen in den seltensten Fällen nur und ausschließlich AAA-Titel daddeln. Die wollen ganz bestimmt häufiger als in den zahlreichen Gaming-Tests geschrieben steht auch Produktivsoftware nutzen. Und da kann AMD auf dem Desktop im Moment NICHTS bieten aktuell. OpenCL war gestern - und den ganzen AI-Kram begrenzt AMD auch noch künstlich auf den Flagschiff-Chip, auch wenn die kleineren Chips derselben Generation ebenfalls architektonisch identisch aufgebaut sind - in der Beziehung sind sie (bislang) leider überhaupt nicht lernfähig! Eventuell hat das Management diesen Irrweg jetzt identifiziert und bläst deshalb jetzt die Fanfaren an. Wer weiß? Wünschen würde ich es ihnen, aber eine Managemententscheidung alleine schafft keinen Mehrwert und erst recht keinen soliden, universellen Softwarestack, der es mit CUDA aufnimmt und dritten unabhängigen Entwicklern Lust auf das Experiment "Offene Standards mit AMD" macht.

Wenn Intel es schafft, trotz Massenentlassungen (habe etwas von knapp 15-tausend Stellen vernommen) ihren Weg in Richtung dedizierter GPUs weiterzugehen, dann wird AMD bald das Alleinstellungsmerkmal "gaming in 50€ günstiger als bei 'den Grünen' " einbüßen. Durch einen Mitbewerber, der - oh Wunder - ebenfalls auf weitestgehend offene Standards setzt. Im ersten Anlauf hatten die sich noch gewaltig "übernommen". Wäre so einfach gewesen, Kunden wie mich zu ködern:
• Boardpartner auch von älteren Plattformen dazu verdonnern, ReBar ordentlich ins UEFI/BIOS einzupflegen. Schließlich war das schon seit Jahren Teil der PCIe-Spezifikation (in meinem Fall hätte das bedeutet: "ASUS: pack ReBar in das BIOS für die X99 Platinen!"
• Rechtzeitig mit funktionierenden Linux-Treibern um die Ecke kommen.
Hätten die das gemacht, hätte ich mir sehr gerne eine Arc770 geholt.

Stattdessen gab es eine Marketing-Campagne und Reihenweise schwarze sowie eingefrorene Bildschirme - sogar auf Windows. Soll ja seit knapp 3 Monaten besser geworden sein. DAS könnte dafür sprechen daß sich Quellen wie MLID vielleicht doch irren: und Battlemage bekommt einen "echten Launch" und nicht nur einen Platzhalter-SKU für Laptop, einen für Desktop - wie er es wiederholt "geleakt" hat. Das wäre dann echte Konkurrenz von unten für AMD, auf die sie bisher nicht zu achten brauchten.
 
Zuletzt bearbeitet :
Oben Unten