News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Das heißt all diese Extraaufwände sind immer noch attraktiver? Wow, damit ist HBM im Privatkundenbereich ja wirklich gescheitert.
Danke für die schnelle Antwort, ist ja fast wie Direktbetreuung 😅
 
HBM2 ist aktuell einfach nicht in den Massen verfügbar, als dass man auch passende Preise hinbekommt. Und dann geht HMB(2) ja auch nur mit einem fragilen Interposer. Ich mag mich da nur ungern an Vega erinnern. Im professionellen Bereich mag das ja noch gehen, aber für Consumer ist das einfach zu aufwändig. Nicht mal die neuen Quadros kommen mit HBM2
 
Da waren ja welche getriggert über eine Meinung von einem Fremden, einfach nicht beachten oder drüber stehen ;)

Wusste nicht das ich neidisch bin wegen läppischen paar Tausend €? Zur Information ich selber hatte eine 2080TI von Palit Gaming Pro von Computerrepublik.de auf Ebay um 900 gekauft(da findet man einige Schnäppchen). Habe die Karte aber mit Gewinn verkauft, weil mir klar wurde wie lächerlich es war.

Mir gehts ums Prinzip nicht ums Geld. Die Leute realisieren nicht das die High End Käufer auch die preise der Mid end raufziehen ist aber egal ne weil Egoismus und so mir gehts gut alle anderen sind scheißegal.(y)


Guter Artikel von Gamestar. Ja dann bin ich halt ein Idiot in euren Augen das ist mir extrem wichtig was ihr denkt😂ich mein wenn interessiert es. Cool down Diskussionen sind nicht Schneeflocken Versammlungen. Extra geschrieben meine Meinung mehr nicht. Nehmt es mit fun es geht hier doch nur um Hardware.
 
Preisdiskussionen sind müßig und stinklangweilig für die, die keinen Grund suchen, um sich mal aufregen zu können. :)

Bitte noch Inflation und Einkommensentwicklung, Rohstoff- und Herstellungskosten dagegen setzen. Dann können wir gern mal einen Überschlag machen. Zumal niemand die Performance beurteilen kann. Diese ganzen Diskussion bringt nur etwas, wenn sich die Preise NACH dem Launch stabilisiert haben und man die wirkliche Performance kennt. Der Rest ist billigstes Click-Bait, sorry.
 
Und warum hat die Gamestar AMD nicht gleich mitberechnet? Angst vorm Shitstorm? :D
 
Die wurden immer billiger, oder? Zwar erst Jahre nach der VÖ, aber wenn dann die versammelte Alteisenkundschaft von der Wega zuschlägt, ne?
 
Mal eine technische Frage, da hier im Forum ja eine Menge Kompetenz unterwegs ist:
Soweit ich die bisherigen Leaks verstehe ist ein großer Treiber der Kosten und des Stromverbrauchs der GDDR6x Speicher, da die Anbindung ein aufwendiges PCB benötigt und dieses wiederum aufgrund der engeren Anordnung schwerer zu kühlen ist. Wäre unter Berücksichtigung dieses Dominoeffekts nicht doch HBM interessant? Der ist auch schnell, braucht etwas weniger strom so weit ich weiß und das enge Platimenlayout hat man so oder so. Und damit hat man wenigstens schon Erfahrungen aus dem Quadro Bereich. Gibt es dazu Infos?
Ich weiss nicht mehr ob es hier irgendwo im Forum war oder in einem Video aber ich meine, Igor hatte mal gesagt das pro Stapel HBM auch so 10 Watt an Verlustleistung zusammenkommen. 2 davon und du bist gar nicht mehr so weit weg von den ~30W pro Seite bei Vollbestückung mit GDDR6x. HBM ist ja auch noch direkt am die dran, also kommst du je nachdem was die GPU verbrät, wahrscheinlich auch nicht um eine teure Vaporchamber drumrum. Ich bin mir auch nicht sicher ob über den Interposer dann auch noch großartig Wärme auf das ganze PCB übertragen wird so das eine vernünftige Backplate da noch Wärme raussaugen kann.
 
auch geil wäre Frame Doubling Interpolation über die Tensor Cores

wenn das scharf und ohne Artefakte ginge hätte NV ein geniales Feature

dann könnte man selbst mit krüppligen CPUs auch high FPS zocken
 
Wie kommst Du darauf, dass das PCB doppelseitig mit VRAM bestückt ist?
ich glaube es ist bisher noch ein Gerücht bzw. Spekulatius :D, oder?
hatte ich glaube aus nem Video von Igor aufgeschnappt, dass ne 10 GB-Variante ne 20 GB-Variante durch doppelseitige Bestückung wird, irgendwo muss der Platz ja herkommen
wenn man den zusätzlichen VRAM weiter weg auf nem 6 Layer verbaut, hätte man ne höhere Latenz und ggf. Signalprobleme, würde ich mal vermuten...
mit doppelseitiger Bestückung hat man allerdings ein Temperatur- bzw. Wärmestromdichte - "Problem" bzw. braucht ne vernünftige Kühllösung
 
3090 Samples sollen schon bei der Presse/Youtubern sein aber ohne Treiber

und AIB Model sollen bis 500W gehen xD

wäre schon lustig wenn das stimmt
 
Ich hab ja schon einiges gekühlt in meinem Rechner, aber irgendwo ist Ende. Mehr als 400 lassen sich nicht abführen ohne Wasser, selbst mit dicken Geschützen.
 
die MSI Gaming X 390 hat doch auch fast 400W gesoffen und die war nur 2,5 Slot und 27cm
 
Äpfel & Birnen & so: 28 nm gegenüber 7 oder 8, 8 GB RAM gegenüber 24, da ist kein ernsthafter Vergleich möglich.
 
3090 Samples sollen schon bei der Presse/Youtubern sein aber ohne Treiber
und AIB Model sollen bis 500W gehen xD
wäre schon lustig wenn das stimmt
Wo hast Du diesen Quark her? Die 3090 wird nach der 3080 gelauncht und noch keiner hat ein Sample. Keiner. RAM geht auch doppelseitig, ging schon bei Turing. PG132 hat beide Optionen. Ich habe die Blueprints, die ich aber nicht leake. Bin ja nicht verrückt :D
 
Und wenn einer aus der Flat Earth Society dir zuzwitschert, dass er grade eben sah, wie ein Tanker, der nur am Horizont verschwand, vom Rand der Erdscheibe fiel, das glaubst du dann auch?
 
Ich bin Presse UND YouTuber, auf Prio und habe exakt: nichts. Vor Jensens Event wird überhaupt nichts verschickt, maximal ein eifriger Boardpartner hätte schon shippen können. Die aber hatten bis jetzt gar kein finales BIOS. NVIDIA ist doch nicht blöd :D

500 Watt sind auch sinnlos. Ich habe hier auch eine 2080 Ti 450-Watt-Evaluation-BIOS. Nutzt einem NICHTS, solange man nicht auch die Voltage freibekommt und mit LN2 rumspritzt :D
 
Mit 350Watt hat ein Kühler schon genug zu tun. Ich hab das ja schon ne ganze Weile gehabt, ich wüsste nicht wie ich noch mehr Abwärme ohne Wasser abführen sollte. Das Gehäuse muss damit auch klar kommen.
 
Oben Unten