Ein paar Gedanken zum Thema KI Basierter Bilddarstellung
Ob DirectML oder DLSS ist gar nicht die Frage
Sondern ab wann ist eine weitere Leistungssteigerung nicht mehr möglich?
Vor Jahren hat man sich darüber aufgeregt das Grafikkarten 200Watt verbrauchen.
Heute können sie schon 400Watt verbrauchen!
In 2 Jahren vielleicht 500 dann 600 dann ….
Ich glaub jeden ist Bewusst das die Entwickler nicht absichtlich mehr Energie verbrauchen, sondern es ein notwendiges Übel ist, mehr „Treibstoff“ zu verbrennen um mehr Rohleistung zu bekommen.
Es sollte auch jeden bewusst werden das eine unendliche Verkleinerung in der Herstellung auch nicht möglich ist.
Ob 7, 6, 5, 4, 3, oder noch 2 nm selbst wenn wir 1nm noch schaffen sollten oder gar in die pm Ebene vorstoßen mit der Silizium Fertigung. Durch die Dotierung müssen wir mit Silizium Gitter Strukturen arbeiten die 543pm breit sind, auch wenn Silizium selbst nur 111-210pm breit ist.
Auch wenn es noch Jahrzehnte dauern könnte bis wir so weit sind 0,5nm Silizium Chips her zu stellen. Kleiner geht es nach aktuellen Erkenntnisstand nicht.
Was ich damit sagen will, um PC Gameing in 16k zu realisieren, braucht man etwa die 16 Fache Leistung einer RTX 3090.
Mit reiner Rohleistung nach aktuellem Technischen Stand
28 Mrd. Transistoren mal 16 = 448 Mrd. Transistoren
628 mm² x16 aber wiederum bei ca. 1nm /16 kommen wir auf etwa den selben Wert 628 mm²
Beim Strom wird es etwas Bombastischer
350Watt x 16 = 5.600 Watt, Selbst wenn wie durch ein wunder die Effizienz um 100% Steigen würden, kommen wir auf 2800 Watt.
Oder ein Zaubertrick gelingt um 200% die Effizienz zu steigern, kommen wir auf 1400Watt.
Ich möchte nicht 1000Watt plus verbrauchen, und ich denk jedem wird klar!
Mit reiner Rohleistung wird das nicht möglich.
DirectML oder DLSS, sind Techniken die es ermöglichen Energieeffizient 8k und 16k zu realisieren. Ich denk sogar soweit zu sagen überhaupt realistisch zu ermöglichen.
Ob wir 16k Brauchen oder 32k sei mal dahin gestellt!
Ob dies versucht wird zu realisieren? ich denk schon.
Ich weiß nur wir Menschen können nicht mehr zwischen 16k und 32k unterscheiden, unser Auge kann einfach nicht mehr Details wahrnehmen als 16k. Und das auch nur unter Optimalen Lichtverhältnissen (Tageslicht).
16k Gaming zu Hause stößt auf viele technische Grenzen.
Was meint ihr, ist 16k möglich?
Ist da Schluss?
Ob DirectML oder DLSS ist gar nicht die Frage
Sondern ab wann ist eine weitere Leistungssteigerung nicht mehr möglich?
Vor Jahren hat man sich darüber aufgeregt das Grafikkarten 200Watt verbrauchen.
Heute können sie schon 400Watt verbrauchen!
In 2 Jahren vielleicht 500 dann 600 dann ….
Ich glaub jeden ist Bewusst das die Entwickler nicht absichtlich mehr Energie verbrauchen, sondern es ein notwendiges Übel ist, mehr „Treibstoff“ zu verbrennen um mehr Rohleistung zu bekommen.
Es sollte auch jeden bewusst werden das eine unendliche Verkleinerung in der Herstellung auch nicht möglich ist.
Ob 7, 6, 5, 4, 3, oder noch 2 nm selbst wenn wir 1nm noch schaffen sollten oder gar in die pm Ebene vorstoßen mit der Silizium Fertigung. Durch die Dotierung müssen wir mit Silizium Gitter Strukturen arbeiten die 543pm breit sind, auch wenn Silizium selbst nur 111-210pm breit ist.
Auch wenn es noch Jahrzehnte dauern könnte bis wir so weit sind 0,5nm Silizium Chips her zu stellen. Kleiner geht es nach aktuellen Erkenntnisstand nicht.
Was ich damit sagen will, um PC Gameing in 16k zu realisieren, braucht man etwa die 16 Fache Leistung einer RTX 3090.
Mit reiner Rohleistung nach aktuellem Technischen Stand
28 Mrd. Transistoren mal 16 = 448 Mrd. Transistoren
628 mm² x16 aber wiederum bei ca. 1nm /16 kommen wir auf etwa den selben Wert 628 mm²
Beim Strom wird es etwas Bombastischer
350Watt x 16 = 5.600 Watt, Selbst wenn wie durch ein wunder die Effizienz um 100% Steigen würden, kommen wir auf 2800 Watt.
Oder ein Zaubertrick gelingt um 200% die Effizienz zu steigern, kommen wir auf 1400Watt.
Ich möchte nicht 1000Watt plus verbrauchen, und ich denk jedem wird klar!
Mit reiner Rohleistung wird das nicht möglich.
DirectML oder DLSS, sind Techniken die es ermöglichen Energieeffizient 8k und 16k zu realisieren. Ich denk sogar soweit zu sagen überhaupt realistisch zu ermöglichen.
Ob wir 16k Brauchen oder 32k sei mal dahin gestellt!
Ob dies versucht wird zu realisieren? ich denk schon.
Ich weiß nur wir Menschen können nicht mehr zwischen 16k und 32k unterscheiden, unser Auge kann einfach nicht mehr Details wahrnehmen als 16k. Und das auch nur unter Optimalen Lichtverhältnissen (Tageslicht).
16k Gaming zu Hause stößt auf viele technische Grenzen.
Was meint ihr, ist 16k möglich?
Ist da Schluss?