NVidia Gerüchteküche: "Super"-Turing-Upgrade bringt drei neue Nvidia-Grafikkarten ins Gespräch

Das sieht schon etwas fragwürdig aus bzgl. der beiden "Ti Super"-Modelle.
Igor hatte die Specs der 2070 und 2080 Super ja schon bestätigt, da er die Chips schon gesehen hat. Zwischen die beiden aber jetzt noch einmal eine 2070 Ti Super reinzuschieben, erscheint arg kleinteilig. Das einzige, was meiner bescheidenen Meinung nach Sinn ergeben würde, ist, wenn das "Ti" (oder wie diese Karte dann am Ende auch immer tatsächlich heißen sollte) in diesem Fall lediglich zusätzlich der Freigabe für die Verwendung von 16 Gbps-Speicher entspricht. Hier aber jetzt noch einmal möglicherweise +2 SMs (dann 42) zu aktivieren ... wie gesagt, erscheint dann ein wenig differenzierbares, weil zu eng beieinanderliegendes Portfolio zu sein. (Lässt sich LadyKracher irgendwie halbwegs sinnvoll für Jensen ins Englische übersetzen? ;))

Zur 2080 Ti Super schreibt wccftech "will be an absolute beast of a card". Neigt Usman hier leicht zur Übertreibung; Igor müsste ihn ja etwas einschätzen können. Im regulären Fall könnte man hier bestenfalls +4 SMs drauflegen, da der TU102 nur 72 SMs insgesamt hat, das heißt man nähert sich schlicht irgendwie dem Vollausbau an oder nimmt gleich diesen. Ein "neuer Chip" könnte sich natürlich auch darauf beziehen, dass man auch den TU102 schlicht für die Nutzung von 16 Gbps-Speicher anpasst. Aber magere 5,8 % mehr SMs für die Consumer-Karte und ggf. noch etwas schnellerer Speicher würde sich vielleicht nur lohnen, wenn man auch noch eine oder zwei neue Quadro's einschiebt, ggf. eine RTX 6100 und 8100, was aber auch unsinnig erscheint, denn hier bliebe als Neuerung lediglich der etwass schnellere Speicher übrig, da diese beiden schon den Vollausbau des Chips verwenden. Zudem erscheint das Consumer-Segment in dieser Preisregion und zu diesem Zeitpunkt jetzt auch schon zu klein zu sein, um diesen Aufwand zu rechtfertigen und die Partner hätten ja auch alle noch einmal Anpassungsaufwand, wenn der (neue) Chip tatsächlich für bis zu 300 W freigegeben wäre.

Verspätet sich ggf. die Nachfolgearchitektur deutlich ins 2. HJ 2020 hinein? Hat Samsung mit derart großen Chips ggf. noch einige Fertigungsprobleme mit seinem 7 nm-Verfahren, die es erst zu lösen gilt?

Unterhalb der Leistungsspitze ist alles nur ein wenig Rumgeschiebe und es gibt ein klein wenig mehr fürs gleiche Geld, aber nichts Neues. An der Spitze würde sich damit was tun, aber in einem Umfang, der die meisten nicht hinter dem Ofen hervorlocken würde, denn eine Nachfolgearchitektur sollte hier deutlich mehr versprechen können. Und das Early-Adopter-Problem lösen ein paar Prozent mehr Leistung an der Spitze auch nicht auf. Mal abwaren, aber der News bzgl. der "Ti Super"-Modelle stehe ich erst mal skeptisch gegenüber.
 
Ein Proof of Concept ist Raytracing sicherlich nicht. Professionelle Anwender werden Dir da bestimmt widersprechen und bspw. Metro Exodus' GI auf Raytracing-Basis ist zweifelsfrei ein Mehrwert.
Das die Technik schon ne Weile real existiert und Verwendung findet weiß ich auch, aber der momentane Stand der Technik - wir reden hier von Consumer / Gaming Karten - ist einfach noch nicht so weit dass man von "es ist da" sprechen kann.
Nennen wir es halt Techdemo statt PoC.
Man kann mMn nicht her gehen und sagen 4k ist der neue heiße Scheiss und 1440p der neue Standard und dann erwarten dass alle jubelnd auf 30FPS FullHD spielen. Von Sinn und Unsinn bei RT-Shootern mal ganz zu schweigen.
Es ist toll dass es da jetzt was gibt und ich finds klasse, ääh. Super, dass sich da signifikante Fortschritte zeigen, jedoch ist es bislang eher Halbgar.

Wenn ich diese Überlegung mit den "vertröstenden Aussagen" von der E3 zu Raytracing kombiniere, komme ich vielleicht gar zu dem Schluss, dass man Raytracing bei AMD erst 2021 sehen wird
Dass das nicht von heute auf Morgen passiert ist klar. Hat nV nicht bei der Vorstellung was von "10 Years in the making" gesagt?
Ich halte es aber für sehr gut Möglich dass AMD hier mit Google (und Sony MS zu Teilen auch) einen Partner hat der einem mehr Möglichkeiten einräumt als es nV auf reiner Endbenutzerebene hat.
nV muss RT auf einer einzelnen Karte für einen einzelnen Nutzer an einer einzelnen Maschine zum laufen bringen.
AMD könnte, zumindest im Fall Stadia, einen anderen Weg wählen und ist nicht darauf angewiesen eine Eierlegende Wollmilchsau zu basteln.
Und je nachdem wie ernst es Google mit Stadia ist, sind die sicher auch ganz happy wenn sie das Feature eher früher als später haben.

Und dass nV bis 2021 Echtzeit RT auf 1440p ohne große FPS drops anbieten kann, möcht ich erstmal sehen.

Stand jetzt ist es halt - meiner Meinung nach - ein Gimmick, kein Feature.
 
It's not a bug, it's a feature kommt mir grad in den Sinn. Oder hier ein featick. Gimmure. Jedenfalls ist das ganze Gewese, weil AMD satte zwei (!!) Grafikkarten rausbringen wird, schon amüsant.
Der Berg kreißt und gebiert ein Mäuschen. Oder zwei. oder drei. Erwarten se nix.
 
Eine RTX 2080 Ti Super wäre zumindest plausibel um den Abstand zur RTX 2080 Super ausreichend groß zu halten. Ein ganz neuer Chip? +30% Leistung vs 2080TI wäre cool, aber zumindest wenn es nur darum geht den Abstand zur RTX 2080 ausreichend groß zu halten, dann dürften es nur 10% sein. Naja mal abwarten ;)

(jetzt wird erstmal an der aktuellen RTX 2080 TI rumgebastelt / Ghetto-Mod)
 
@Affenzahn Ich glaube das Hauptproblem für Echtzeit RT war einfach, das die Spieleentwickler bzw. Nvidia den Aufwand für die Umsetzung in Spielen unterschätzt haben. BF 5 war ein PR Desaster für die RT Technik, mittlerweile ist es in WQHD sehr gut mit einer RTX 2080 TI mit Raytraicing spielbar, mit abstrichen (RT auf mittel) auch in 4k.

Je mehr die Spieleentwickler sich auf die neue Technik einlassen und Erfahrungen sammeln, umso besser wird die Unterstützung. Es wird einfach einen fließenden (langjährigen) Übergangsprozess geben, wo halt getrickst werden muss mit teils nur einzelnen Effekten bzw. dem vermischen von RT Effekten und klassischen Technologien.

Das RT jetzt nicht mehr das Mega Verkaufsargument ist, dürfte Nvidia gemerkt haben und auch deswegen einen Konter gegen Navi fahren. (sonst hätten die es schlicht nicht nötig gehabt, wenn RT voll eingeschlagen hätte)
 
Ich kann nur für mich persönlich sprechen: Ich bin mit meiner 2080Ti erst einmal "bedient". Die bietet aktuell und bestimmt auch noch weitere 12-18 Monate genug Leistung für meine Daddelansprüche auf WQHD in allen denkbaren Spielen. Insofern werde ich mir ein wenig Rest-Vernunft bewahren, und die jetzt anstehenden nächsten Generationen bei den Grafikkarten überspringen.

Dazu veranlasst mich aber mit Blick auf AMD der voraussichtlich im Vergleich zur 2080Ti nicht erzielbare Leistungsgewinn und in Richtung nVidia der m.E. echt immer noch überschaubare Mehrwert von RT und DLSS. Verbindet man das mit den aufgerufenen Preisen und der (ab) 2020 wohl spannend werdenden Entwicklung im Gamingbereich insgesamt (Stichworte: neue Konsolen und Cloudgaming), werde ich selbst als grundsätzlich euphorischer Technologiejünger ein solches Investment zum jetzigen Zeitpunkt einfach nicht tätigen.

Wenn dann geht dieses Jahr für mich bei den CPUs noch etwas. Da habe ich für mich aber auch noch nicht das wirklich passende Nest identifiziert, in das ich mein Ei legen will. :unsure:
 
Also - heute mal mit 2 Distris und einem AIC gechattet - keiner hat jemals etwas von einer 2080 Ti Super gehört. Bevor Usman (also WCCFTECH) gestern die Initial-News veröffentlich hat (die dann alle brav abgeschrieben haben), hat er mich um meine Meinung gefragt. Seine Quelle ist nicht Nvidia und ich halte das Ganze entweder für einen viralen Marketing-Gag oder NV checkt gerade die Kanäle auf Leaks ab. Alles andere ergäbe keinen Sinn. Deshalb werde ich dazu auch KEINE News schreiben. Not confirmed, also sinnloser Binärquatsch.
 
Die Verballhornung zu WTF? Echt? ist erlaubt, ja? Gut. Und wenn doch ne 2080 Ti Supercalifragilisticexpialidocious auftauchen sollte, dann wird die Welt immerhin ein bißchen bunter, is ja auch was.
 
Wundert mich eh, dass da nicht mal härter gegen Leaker vorgegangen wird. Man könnte ja Präsentationen verschicken und jede ganz leicht individualisieren, ein Strich der bei jeder präsi minimal breiter, kürzer oder dicker ist, andere Farben usw. und wenn das dann geleakt wird, weiß man sofort, wer der Verursacher ist. (Machtbar solange der Verteiler nicht zu groß ist ;) )
 
Das wird schon bei einigen Confidential-Sachen gemacht. Ich habe mal zwei Greenlight-Präsen gegeneinander laufen lassen. Da waren im PDF die grünen Flächen unterschiedlich aus Einzelteilen zusammengesetzt. Unabhängig vom Watermark. :D

Ist mir zufällig beim Entfernen der Wasserzeichen aufgefallen, denn ich hatte die PDF in ein anderes Vektor-Programm direkt importiert :D
 
Proof of Concept oder TechDemo

Um das vorweg zu nehmen, ich bin derzeit ebenfalls nicht bereit für Raytracing zusätzliches Geld auszugeben, umso mehr, als das ich zumindest für mich mindestens etwas wie eine RTX 2080 anvisieren würde und für den kleinen Zugewinn, der zu einem vernachlässigbaren Zugewinn aufgrund der derzeit nur wenigen, verfügbaren Titel wird, spare ich mir das vorerst und warte auf 2nd Gen Hardware bzw. AMDs ersten Wurf. (Mir persönlich reichen die grafischen Fähigkeiten der 2018/19er-Engines auch ohne Raytracing mehr als aus und ich lege hier mehr Wert auf Storyentwicklung und Spielmechaniken, wobei jedoch gerade letzterer Punkt bedauerlicherweise von der Industrie so gut wie gar nicht angegangen wird.)

a) Renderingverfahren
Das grundsätzliche Renderverfahren sowie die Arbeitsweise der GPUs ist weiterhin unverändert geblieben und verwendet Rasterization. Neu hinzu kommt nun das Einbinden zusätzlicher, mittels Raytracing berechneter Daten in die klassische Grafikpipeline, d. h. man kann es als ein hybrides Rendering-Verfahren bezeichnen, vielleicht etwas wie Raytracing-unterstützte Rasterization, o. Ä.
Warum jedoch etliche vielfach dieses Alles-oder-Nichts-Argument bringen, d. h. "Echtzeit RT" (vermutlich ist damit eine rein auf Raytracing basierte Engine gemeint, denn Echtzeit ist obiges selbstredend auch) ist mir schleierhaft.
Einen Mehrwert bringt die Technik (wenn sinnvoll angewendet) alle Mal, wobei den konkreten Wert jeder für sich selbst bewerten muss und man darf sich natürlich nicht von Werbe-Blendgranaten irritieren lassen. Hätte man einen vergleichbaren Alles-oder-Nichts-Anspruch bei den ersten Vertex- und Pixel-Shadern in den Raum gestellt, die durchaus beschränkt waren aber auch schon zu Beginn einen Mehrwert bieten konnten, wären diese wohl im schlimmsten Fall wieder aus den GPU-Architekturen verschwunden.
"Reines" oder "echtes" Raytracing in Echtzeit (natürlich in mindestens der heutigen Qualität, da Gamer ja keine Abstriche machen), wird man auch in 2021/22 nicht antreffen (umso mehr, wenn man FullHD mit 144 Hz oder etwa 4K anvisiert oder bald gar total überflüssige 8K), da der Rechenaufwand hier um Größenordnungen anwächst, sodass diese Aufwertung der aktuell genutzten Grafikpipeline einen durchaus sinnvollen Schritt darstellt. (Am Ende muss das Silizium in einen für den Massenmarkt vertretbarem, preislichen Rahmen gefertigt werden. *)
Die Cloud wird diesbezüglich (vorerst) auch kein Heilsbringer sein, denn die dort laufende Hardware (Strom, Wartung, Bandbreite, Lizenzgebühren) muss auch bezahlt werden und im Augenblick pendeln sich die Preise bei monatlichen 15 - 20 $ für ein Abo ein, was nicht gerade viel ist. Zudem hätte hier vorerst Microsoft wahrscheinlich das größere Potential, da Google derzeit Standardhardware von AMD verbaut, während Microsoft in seiner Cloud spezialisierte Blades auf Basis des neuen (leistungsfähigeren) Konsolen-SoCs verwendet. Google könnte hier natürlich später auch Instanzen mit nVidia-Karten anbieten, was aber auch die Betriebskosten erhöhen wird ...

b) Aktuelle Grafikparameter
Das Problem sehe ich eher bei den Konsumenten. Nur weil jemand "Spring!" ruft, springe ich noch lange nicht von der Brücke und wenn man mir 144 Hz, 4K oder 8K verkaufen will und ich mich außer Stande sehe, mal hinter die lautstark vorgetragenen Verkaufsargumente zu blicken, dann muss ich auch mit den Konsequenzen leben.
Vergleichbar ist es ja auch in der Filmindustrie. Der Sprung zu FullHD und dann 4K (bald zu 8K) hat in keinster Weise zu besserem Content geführt. Story und Dialoge sind immer noch vielfach dümmlich-blöd, werden halt nur mit in der höheren Auflösung besser wirkenden Effekten kaschiert, wobei sich das ganze jedoch schon bei 4K zu nivellieren beginnt, erst recht bei schnellem (und oftmals noch schneller geschnittenem) Action-Gekloppe. Zudem dürfte sich der Output an überflüssigem Blödsinn gar noch aufgrund des insgesamt gestiegenen Outputs der Industrie deutlich erhöht haben und irgendwelche Perlen muss man nach wie vor aufwändig suchen. (Effekte, Revivals und Covers sind halt kalkulatorisch einfacher und weniger risikobehaftet bei dem heutigen Konsumentenverhalten, als etwas Neues oder gar Innovatives auf den Markt zu bringen.)
In einem Punkt hinkt der Film-Vergleich sogar, denn während es dem eh schon vorhandenen 4K-Fernseher egal ist, ob er FullHD oder 4K darstellt, muss der Computer aufwändig jedes zusätzliche Detail in Echtzeit berechnen, was die gesamte Hardware mäßig bis gar deutlich verteuert und am Ende reicht es dennoch nicht für maximale Settings bei 4K mit >= 60 Hz (und zudem wird nun ein Teil dieser zusätzlichen Details umsonst berechnet; > Physiologie).

Das die aktuelle Implementation von Raytracing für Dich nicht relevant oder ein ausreichendes Kaufkriterium darstellt, ist vollkommen legitim, dennoch stellt es, wenn sinnvoll angewendet, durchaus einen visuellen Mehrwert dar, der die aktuelle Computergrafik aufwertet. Welchen monetären Gegenwert dem jeder beimisst, liegt an jedem selbst. (Meinen Standpunkt habe ich ja schon einleitend erläutert und bevor ich bspw. Metro Exodus in 4K spielen würde, würde ich es eher in QHD mit aktiviertem Raytracing spielen wollen. Aktuell kann ich mich aber auch ganz gut mit UHD ohne Raytracing arrangieren ;-)

c) Zukunft
Bis bspw. 2021/22 wird man sicherlich kein "echtes, vollständiges, pures Raytracing" auf Consumer-Hardware zu sehen bekommen und wahrscheinlich wird dies noch deutlich länger dauern, denn eine visuelle Aufwertung ist auch mit dem aktuell beschrittenen Pfad zu erreichen, dessen technischer Aufwand und Kosten deutlich überschaubarer sind.
Eine größere Markdurchdringung wird wohl zweifelsfrei mit den neuen Konsolen stattfinden **), auf dem PC wird man abwarten müssen wann AMD mit entsprechender Hardware aufwarten kann. Ich kann mir durchaus vorstellen, dass es hier vertragliche Auflagen seitens Sony und/oder Microsoft gibt, die AMDs Handlungsspielraum diesbezüglich etwas einschränken, sodass man abwarten muss, ob bspw. die als Navi 20 vermutete Architekturerweiterung überhaupt schon Raytracing-relevante Technik enthalten wird.
Und schlussendlich muss man auch den Einfluss der Konsolen berücksichtigen, der bereits mit der aktuellen Generation beträchtlich gewachsen ist. Mit deren nur geringfügig abweichender Technik (auf/für Xbox, PS4, PC) bestimmen die Konsolen wesentliche Rahemnparameter, in denen heutige und zukünftige Spielentwicklung stattzufinden hat. So wie bspw. CPU-Kernzahlen sich nur unwesentlich über eine 4-Kernnutzung hinaus entwickeln konnten, werden die neuen Konsolen erneut eine weiche Grenze bei etwa 8 Kernen setzen. PC-Gaming ist nun mal nicht mehr der Hauptmarkt und Spielen am technischen Limit wird weiterhin nur einer zahlungskräftigen, kleinen Klientel vorbehalten bleiben.

Schlussendlich könnte ich mir gar vorstellen, dass Cloud-Gaming mit der Zeit den reinen PC-Gaming-Markt weiter schrumpfen lassen wird, denn während potentielle Konsolenkunden mit vielleicht bis zu 700 € noch eine recht überschaubare Investition vor Augen haben, reicht ein solcher Betrag bei ambitionierten Gamern nicht einmal für eine Grafikkarte. Man wird sehen, wohin sich das alles entwickelt, zumal auch für Sony und Microsoft, denn mit der Could wird die (Konsolen)Hardware und Abgrenzung der Ökosysteme zunehmend unbedeutender.


*) Ich erinnere mich noch gut an SGIs Infinite Reality, im Vergleich zu den ersten 3D-Karten auf dem PC, wo man schon neidvoll und ehrfürchtig hinschielte, ein leistungsstarker Server mit mehreren hochspezialisierten Steckkarten, der für die damalige Zeit unglaubliches in Echtzeit leistete ... jedoch auch für mindestens den Preis eines Mittelklassewagens oder mehr. Rest in Peace, MIPS ;-)

**) In welcher Art auch immer, da sich beide Hersteller noch nicht weiter zu ihrem Raytracing-Teaser bzgl. der technischen Implementation geäußert haben.
(Ich persönlich werte aber auch schon Crytek's Neon Noir-Demo (Cryengine 5.6/5.7) als Aufwertung, obwohl es ein rein softwarebasierter, hardwareunabhängiger Ansatz ist, der die Compute-Leistung der GPUs über die universellen Shader Prozessoren nutzt.)
 
@gerTHW84 Ich hoffe das Deine Vorstellung hinsichtlich Cloud-Gaming nicht ganz so schnell Realität wird. (längerfristig wohl durchaus möglich) Das der PC Markt durch Cloud-Gaming weiter schrumpft - bitte nicht! Es gibt so viele Dinge die mich daran stören, Abhängigkeit von einer konstant guten Internetanbindung, Input Lag, schlechteres Bild durch die komprimierte Übertragung, Abogebühren, Modfähigkeit, niedrige Auflösung...
Für mich eher ein Alptraum falls das den PC Markt weiter schrumpfen lässt.

Zumindest Xbox Streaming (über Netzwerkkabel) konnte ich bereits testen. Das funktionierte auch in einer moderaten Qualität. Es gab aber auf jeden Fall Verluste durch das komprimierte Bild.

Wo ich Cloudgaming eher angesiedelt sehe, sind die klassischen Konsolenspieler die ggf. auch nicht bereit sind viel Geld auszugeben.
 
Ich hoffe das Deine Vorstellung hinsichtlich Cloud-Gaming nicht ganz so schnell Realität wird.

Hier bin ich mir auch noch nicht sicher wie ich das finden soll, aber irgendwie deuten die Zeichen schon in diese Richtung. Meine Hardware, mein Setup und meine Konfiguration, mein Hoheitsgebiet, im Zweifelsfall kann ich auch das Netzkabel abziehen und gekauft ist gekauft und gehört damit mir, für immer ... in etwa solche Dinge schwirren mir da im Kopf rum.
Das Problem ist, dass diese Dinge sich heute schon zum Teil aufzulösen beginnen. Microsoft versteht Windows (für PC-Gaming weiterhin unerlässlich) mittlerweile als Windows as a Service, ich kann zwar auch eine Weile offline arbeiten, sollte dann aber, wenn ich nach 60 oder 90 Tagen wieder online gehe, möglichst als erstes alle Sicherheitsupdates einspielen. Ich kann zwar noch Spiele im Retail-Markt kaufen, erhalten dann aber i. d. R. nur noch einen Freischaltcode und wenn tatsächlich doch eine CD dabei ist, erhält die oftmals nur noch 5 MB an Daten, konkret eine setup.exe, die alles Online herunterlädt. Dann bin ich irgendwann fertig und hänge an der jeweilgien Plattform (Steam, Origin, UPlay, etc.). Ich kann mir vorstellen, dass die zwar auch einen Offline-Fallback haben, bei etlichen Games würde ich mittlerweile dennoch annehmen, dass die, wenn über mehrere Tage hinweg keine Validierung im Hintergrund erfolgen kann, irgendwann auch nicht mehr gestartet werden können (habe ich noch nicht ausprobiert). Und bei typischen Online-Titeln stellt sich eine entsprechende Frage per se nicht und hier muss man irgendwann damit rechnen, dass die zugehörigen Server abgestellt werden und dann ist es grundlegend vorbei mit dem Spiel. Und dann der Releasedruck der Entwickler und Publisher, der zur Veröffentlichung vielfach unfertiger Titel führt, die dann schon grundlegend 50 GiB auf die Platte schaufeln, bei denen dann aber dennoch nicht wirklich was ohne einen Day-One-Patch läuft, der den Namen nicht mal ansatzweise verdient, da hier noch einmal weitere 20 GiB nachgeladen werden müssen. Und von der Aufkünfigung von (teilweise naheliegenden) Features oder der Verlagerung in irgendwann erscheinende DLC-Pakete braucht man erst gar nicht anfangen zu reden und am Ende wird einem noch vollmundig erklärt, dass man "auf uns [die Gamer-Community] gehört hat und deshalb nun etwas ganz tolles ankündigen kann" ...

Man wird sehen, aber die Konvergenz (Xbox Game Pass Ultimate für 15 $ für die Xbox und PC-Games), die Microsoft auf seiner E3-Präsentation ankündigte ist schon ein erster Vorbote (sicherlich auch unter dem Druck des aufkommenden, neuen Konkurrenten Google/Stadia aber auch in Bezug auf Sony, das ähnliche Pläne verfolgt). Hinzu kommt Project xCloud, bei dem man im einfachsten Fall seine Xbox als Streamingziel verwendet oder später wahrscheinlich auch auf nahezu beliebiger Hardware die Game Pass-Titel spielen können wird. Den Gedanken kann man weiter fortführen in Richtung sich immer mehr virtualisierender Besitztümer, Sicherheitsprobleme, Identitätsdiebstahl, usw ...

Und wenn ich jetzt noch oberstudienratsmäßig mit Nickelbrille und geschwungenem Rohrstock mahnend den Zeigefinger hebe, könnte ich mir auch Gedanken über die volkswirtschaftlichen und gesellschaftlichen Konsequenzen machen, wenn solche mächtigen, weltumspannenden Konzerne erklären, dass man noch mehr Gamer erreichen (und schaffen) möchte und ihnen ermöglichen will, zu spielen, wann immer, was immer und wo immer sie wollen ...
Vielleicht sollte ich zumindest noch schnell dafür sorgen, dass ich wenigstens meinen Anteil an der drohenden Apokalypse habe, indem ich den wesentlichen Teil meines Portfolios hin zu Microsoft oder Google verlagere. ;)
 
Für mich ist es immer noch unerlässlich sich Zeit für das Gaming zu lassen und diese Zeit auch einzuteilen. Unterwegs zocken ist reiner, oberflächlicher Konsum eines Games, da es nicht ermöglicht den Spielinhalt gänzlich zu erfassen. Dafür ist man zu abgelenkt, wenn man in öffentlichen Verkehrsmittel oder im Freien ist.
Für mich stellen die Spieleplatformen kein Problem dar, eher das Cloudgaming. Ich möchte weiterhin eine gewisse Autonomie besitzen und nicht jeder hat einen entsprechenden Internetanschluss mit der benötigten Bandbreite.
 
Ich weiß leider momentan gar nicht, was ich spielen soll... suche gut aussehenden Coop mit Langzeitmotivation - Genre fast egal. :) Darf auch ein MMO Asien, wenn’s nicht gerade ein Loot-Shooter ist.
 
Ich kann mir vorstellen, dass die zwar auch einen Offline-Fallback haben, bei etlichen Games würde ich mittlerweile dennoch annehmen, dass die, wenn über mehrere Tage hinweg keine Validierung im Hintergrund erfolgen kann, irgendwann auch nicht mehr gestartet werden können (habe ich noch nicht ausprobiert).
Ich habe mich lange gegen Steam gesträubt, aber irgendwann ging es dann doch nicht mehr, ich habe mich dann getröstet, dass es ja einen Offline-Modus gäbe. Tja, blöderweise startete Steam nach einiger Zeit nur noch, wenn ich mich über den Onlinemodus eingeloggt habe, ich konnte dann zwar wieder offline gehen, aber nervig war es trotzdem, vor allen Dingen weil ich anscheinend ein Talent habe, mir Wohnungen zu suchen, wo es nur absolut besch***enes DSL gibt. Mittlerweile lasse ich den Kram immer online und steuere die Downloads manuell, 30GB zu laden dauert halt immer noch 2 Tage :sick: Dieses rein virtuelle Eigentum nervt mich auch, man gibt viel Geld für die Spielerei aus, man kann das Spiel aber nur nutzen, solange der Anbieter es zulässt, das gefällt mir nicht wirklich, aber Alternativen gibt es kaum noch (gog).
Dieses Cloudgaming ist nur die logische Fortführung des Konzeptes und wenn man schnelles Internet hat, dann hat das ja auch durchaus seine Vorteile.
 
Es gibt ja noch GoG.
 
Ich hab mich damit abgefunden, auch weil ich de facto festgestellt habe, dass Spiele doch eine recht kurze Halbwertszeit haben: intensiv spiele ich etwas für einen recht überschaubaren Zeitraum (best case: Monate). Länger sind dann Online-Games, wo ohne Verbindung ja eh nix geht.

Dass ich mal alte Klassiker wieder ausgrabe, kommt fast gar nicht vor - und manchmal waren dann die CDs hin oder das Game läuft auf der aktuellen Plattform nicht mehr (so ootb). Dann hab ich das teilweise einfach nochmal bei Origin, Steam & Co. online gekauft, dann funzt es wenigstens (meistens) zuverlässig.

Und ich weiß durchaus zu schätzen, dass dank Steam & Co. ich nicht mehr Datenträger sammeln, pflegen und ggf. wechseln muss. Klar, dafür braucht’s im Austausch leider ne halbwegs gescheite Leitung. Und ggf. größere Platte, denn immer wieder neu runterladen ist ja irgendwie auch Mist. Drum hab ich knapp 4TB SSD-Platz nur für Game-Speicherplatz....

Habe meinen Frieden damit gemacht, zumal lamentieren ja nix bringt.

Nächste Evolution ist dann tatsächlich Cloud Gaming. Da kommt aber meine Skepsis weniger aus Richtung der weiteren „Entfernung“ des gemieteten digitalen Contents vom „Eigentum“ (ist meins, kann machen was/wann ich will) als von der Hardware: Latenz, Bildqualität usw. - das gescheit über die Leitung zu ballern stellt ganz andere Anforderungen an die Verbindung und ich habe Zweifel, dass die Leitungen hier bei mir schon soweit sind... vor allem wenn neben mir auch die ganze Familie streamt und daddelt ...
 
Oben Unten