Die weltweite Verbreitung von sogenannten verbraucherorientierten GPUs, auch gern als Gaming-GPUs bezeichnet, ist sehr hoch. Diese GPUs sind nicht nur leicht zugänglich, sondern auch wesentlich günstiger im Vergleich zu den Alternativen wie Workstation-GPUs.
Diese GPUs sind besser geeignet für Einzelpersonen, um damit zu arbeiten, auch bezüglich des Preises. Ein weiterer vernachlässigter Aspekt solcher Grafikprozessoren ist ihr Beitrag zur Entwicklergemeinschaft. Die leichte Zugänglichkeit bedeutet, dass jeder, unabhängig von seinem Standort, eine AMD Radeon oder NVIDIA GeForce GPU für seine Nutzung erwerben kann. Allerdings sind die aktuellen Generationen tatsächlich so konzipiert, dass sie diesen Aspekt teilweise aus den Augen verloren haben.
Raja Koduri wiederholt diese Idee und glaubt, dass Technologieriesen wie AMD und Intel ihre Herangehensweise an Verbraucher-GPUs überdenken müssen. Er betont, dass PC-Entwickler diese Art von Technologie als unverzichtbar für ihre Arbeit betrachten. Basierend darauf, wie Technologien wie AMDs ROCm und Intels SYCL entwickelt werden, um PC-GPUs in den Hintergrund zu drängen, bedeutet dies, dass solche Entwickler viel verpassen könnten. Koduri ist der Meinung, dass NVIDIA und AMD diesbezüglich in einer viel besseren Position wären als Intel. Ironischerweise hat dies die Akzeptanz von Intels Verbraucher-GPUs durch die Entwicklergemeinschaft behindert, da dieselben Entwickler gerne das Beste aus beiden Welten hätten (starke Gaming- und KI-Fähigkeiten).
Yes. Developers on PC GPUs are the key enablers to DC GPU success. So all the dev tools need to work flawlessly on PC GPUs. Currently this is largely true with Geforce. Radeons definitely got better these past 6 months and they are showing increased commitment to PC developer .… https://t.co/9r1uhzksZg
— Raja Koduri (@RajaXg) February 18, 2024
Raja Koduri behauptet, dass das aktuelle KI-Ökosystem die Hauptursache dafür ist, dass GPU-Hersteller sich hauptsächlich auf KI-Beschleuniger konzentrieren. Dies bedeutet, dass bestehende und zukünftige Ressourcen eher darauf ausgerichtet sind, das KI-Publikum exklusiv zu bedienen, anstatt die allgemeinen Nutzer. Obwohl es Lösungen, wie das kürzlich aufgetauchte ZLUDA gibt, das es ermöglicht, NVIDIAs CUDA-Bibliotheken auf dem ROCm-Stack zu nutzen, ist offensichtlich, dass moderne Stacks nicht so “open-source” sind, wenn es um ihre Leistung auf allen Arten von GPUs geht, wenn man sich auf individueller Ebene fokussiert.
This really captures my sentiment with @IntelAI. Please, please, please put some effort marketing the @IntelGraphics consumer products to ML enthusiasts—they are the people who will help build up your datacenter market share.https://t.co/07oSmGtCe8
— Eric Hallahan (@EricHallahan) February 16, 2024
Vor Kurzem hat NVIDIA die Unterstützung für TensorRT-LLM auf seinen Consumer-GPUs freigegeben, während AMD auch die Unterstützung für ROCm für eine spezifische Serie seiner Radeon-GPUs geöffnet hat. Für einen durchschnittlichen Gamer ist dies sicherlich keine beunruhigende Entwicklung, sondern vielmehr lobenswert, da es im kommenden Zeitalter der KI-PCs unerlässlich sein wird, über moderne KI-Fähigkeiten und Software-Stacks zu verfügen. Allerdings könnten Entwickler in Zukunft ihre Entscheidung, eine Verbraucher-GPU zu verwenden, überdenken müssen, es sei denn, die Hersteller ändern die Art und Weise, wie sich das Software-Ökosystem entwickelt.
Quelle: @RajaXg
6 Antworten
Kommentar
Lade neue Kommentare
Veteran
Urgestein
Neuling
Urgestein
Mitglied
Alle Kommentare lesen unter igor´sLAB Community →