Geforce RTX 3090: 8K und 30 Fps in The Witcher 3, Horizon Zero Dawn und mehr

Also wenn man von 8K-Grafikkarte spricht, dann sollte sie aktuelle Spiele auch in 8K/60FPS (ohne schummeln) erreichen. Die GTX1080Ti wurde erstmals als 4K-Grafikkarte angepriesen, weil sie damals aktuelle Spiele gerade so mit 60FPS wiedergeben konnte.

Jetzt bei der 3090 von 8K zu sprechen ist lächerlich bei 30FPS. Sind wir hier bei den Konsolen oder was?

Wenn eine Karte kommt, die doppelt so schnell ist wie die 3090 und dann AKTUELLE Spiele (nicht fucking Witcher3) auf 8K/60FPS wiedergeben kann, DANN kann man von einer 8K-Karte sprechen.

Das hier ist Marketing-Bullshit.
 
Also wenn man von 8K-Grafikkarte spricht, dann sollte sie aktuelle Spiele auch in 8K/60FPS (ohne schummeln) erreichen. Die GTX1080Ti wurde erstmals als 4K-Grafikkarte angepriesen, weil sie damals aktuelle Spiele gerade so mit 60FPS wiedergeben konnte.

Jetzt bei der 3090 von 8K zu sprechen ist lächerlich bei 30FPS. Sind wir hier bei den Konsolen oder was?

Wenn eine Karte kommt, die doppelt so schnell ist wie die 3090 und dann AKTUELLE Spiele (nicht fucking Witcher3) auf 8K/60FPS wiedergeben kann, DANN kann man von einer 8K-Karte sprechen.

Das hier ist Marketing-Bullshit.
Kann nVidia ja gut
 
was machst du denn dann hier im internet wenn du so ein Technik gegner bist ab in die höle und jage dir am besten einen hasen...
Nett dass du mich so schnell in eine Schublade steckst, nur weil ich die Entwicklung kritisiere :D
Aber klar, schließe ruhig von einem Punkt/Thema aufs große ganze.
Und die Beleidigung kannst du dir sonst wohin stecken.
 
@Sinuscom
Grundproblem der meisten modernen Menschen ist: sie sehen nicht mehr richtig hin.
Kann ich aber verstehen, ich wurde verrückt und verarbeite so meine Panik.
Wenn alle wirklich richtig sehen/hinsehen würden, ich wüsste nicht ob das wirklich gut wäre...

Zum Glück kann man seine Energie in unwichtige Debatten stecken ob 30 FPS für einen
Individuellen Menschen mit anderer Wahrnehmung als die, die anderes behaupten, stecken.
Das ist keine Kritik an sich, lasse ich mich doch nur all zu gerne von diesem Hobby zerstreuen,
höchstens an Menschen mit Tunnelblick und Scheuklappen...

Soll doch jeder spielen wie er möchte.
Vll bin ich eh nicht Kritisch genug, aber ich war mit 25 FPS glücklich als ich AC 1 spielte vor 10 Jahren.
 
Auch wenn 8K sinnfrei sind, muss man die Leistung schon respektieren. gerade in diesen spielen ist das schon nicht mal so nebebei gemacht, da steckt schon echt Power dahinter. aber einfach zuviel Strom... viel zuviel...
 
Und genau das is der springende Punkt :D Daher sollte man Technologien, die man verbreitet oder sich verbreiten lässt, überdenken. Stichwort Amazon Alexa, Soziale Netzwerke, Cookies, und vieles mehr.
Sozio- Technologisches Gleichgewicht! Das Bereitsein für die neue Technik. Der Abwurf der Atombombe ist wohl ein gutes Beispiel für das Nichtbereitsein. Man benötigt als Gesellschaft erst einen ausgeprägten kulturellen Hintergund, damit man mit der Technik umgehen kann.
Alexa sehe ich da ganz besonders kritisch. Die hört doch bestimmt jedes einzelne Wort mit, was man sagt.

Nett dass du mich so schnell in eine Schublade steckst, nur weil ich die Entwicklung kritisiere :D
Du solltest nicht die technologische Entwicklung kritisieren sondern den Umgang mit ihr. Durch die Kernspaltung hat die Gesellschaft nämlich noch mehr bekommen als nur die Atombombe. Gewisse technologische Entwicklungen können halt manchmal auf verschiedene Arten genutzt werden.
 
Zuletzt bearbeitet:
Kann mich an die erste Gopro mit 4K erinner, die konnte 16 FPS. Dagegen sind 30 FPS brauchbar.

Klar ist das Marketing, aber meiner Meinung nicht wegen der ungeeigneten Grafikkarte, sondern wegen den nicht spieletauglichen Bildschirmen auf dem Markt
 
Da hat man endlich eine GraKa, auch wenn keine für 500€, die endlich 4k mit 144fps schafft, aber es gibt keinen guten Monitor mit 32", 4K und 144hz.........irgendwie traurig das ganze.
 
Ist ja auch OK.
Bei mir spielt halt auch das Gefühl beim Spielen eine wichtige Rolle und 30 FPS z.B. sind für mich unspielbar.
Kommt mir so vor als ob ich mir eine Slideshow anschaue.
30 fps finde auch ich zu wenig. Läuft ein Spiel zu schlecht mit meinen Settings (alles auf Anschlag) wird das Spiel zurückgestellt bis bessere Hardware verfügbar ist.
So z.b. mit Controll und dem aktuellen Ghost Recon gemacht. Die liefen in 4k alles auf Anschlag zu schlecht so kamen sie halt auf die Imaginäre Warteliste. Jetzt mit der 3090 kann ich die Nachholen, wenn mal Zeit da ist...
 
Letzten Endes auch nur ne' Marketing-Nummer von Nvidia, um sich irgendwie von den neuen Konsolen abzusetzen,
die ja bekanntlich mit 4K "und" 120fps werben. Und wie den meisten halbwegs Belesenen bekannt sein sollte, sind das auch nur weitgehend leere Versprechungen, genau so wie schon bei XBox One und PS4...

Wer da von 4K @ 120Fps träumt, wird vermutlich eher ne herbe Enttäuschung erleben...

Entweder beziehen sich solche Behauptungen auf weniger anspruchsvolle oder ältere Spiele, Spiele bei denen die Details oft stark reduziert sind oder schlicht auf Szenarien mit niedrigeren fps.

Die 3090 ist genauso wenig ne 8K Karte wie PS5 und XBox Series X 4K-120fps Konsolen sind...

Das traurige daran ist dass solche "Marketing Spielereien" im Prinzip gar nicht notwendig sind, und gerade für belesene Kunden eher wie ein Versuch aussehen, weniger mit der Thematik vertraute Kunden zu locken, die auf solche Schlagworte reagieren...

Gerade bei Kunden die 1500€ für ne GPU ausgeben, würde ich entsprechendes Wissen mal voraussetzen -
oder zumindest allgemeine Skepsis, sofern es sich um neue Produkte handelt...

Dass die 3090 endlich mal ne Solide 4K Karte ist die auch in modernen Titeln ordentliche Leistung bei guter bis sehr guter Bildqualität abliefern kann reicht da wohl nicht. Dass man sowas noch mit unsachlichen 8K Behauptungen "aufhübschen" muss ist mir echt ein rätsel... Aber das eben Marketing.

Da bin ich nur froh, dass wir langsam aber sicher in Auflösungsbereiche vorstoßen, bei denen eine weitere Steigerung schlicht sinnfrei ist. Bei Smartphones ist ja schon so weit. Auflösungen von mehr als 16K werden sich vermutlich nie im Consumerbereich etablieren. Was hoffentlich dann endlich dazu führt, dass sich Hersteller vermeht der Qualität widmen...
 
Was will man mit 8K
Zuerst Grafikqualität hat nichts mit der Auflösung zu tun.
Den dargestelltes bild ungleich berechnetes Bild.
Will man mehr details muss zuerst Geometrie und texture Bittiefe erhöht werden
Geometrie also quasi polygondichte erreicht man durch vom game ausgelegtes design auf eine Auflösung hin .
Hier bestimmen die Konsolen welche Auflösung genutzt wird.
Aktuell sind wir bei 1080p
Mit ps5 XsX wird daraus 1440p.

Das ist eine grobe Ausrichtung das mehr an pixel die berechnet werden erzwingt quasi ein anti alaising auf den Texturen.
Dafür gibt es bessere verfahren als wenn am stumpf die Auflösung hochpusht, am PC nennt man das downsampling wenn man höhere Auflösungen an kleiner Auflösungen berechnet.

Nun kommen wir zu warum das am TV (PC Monitore sind nicht so groß)
besser aussieht
Es liegt schlicht an der pixeldichte des TV und hat rein gar nichts mit der game engine oder der gpu zutun.
Wenn man FHD 24" sind 0,28mm und bei 4k 32 sind es 0,07mm 8k bei 40" müssten 0,03 sein.
Das menschliche Auge kann Abstand bezogen auf 50cm maximal 0,1mm Abstände sehen sofern gesunde Adleraugen alle anderen sind bei etwa 0,3mm
games berechnen ihr bild in maximal 1920-1080 pixel oder besser ausgedrückt in bittiefe pro texture was um die 512bit ist

Das wird dann auf die ganze Auflösung hin skaliert.
Ist also mehr alaising sichtbar bei games ist simple die texture Auflösung zu gering oder das Gittermodell sprich polygondichte geringer.

Mit UE5 wird sich das ganze ändern wo erstmals die texture quasi skalierbar höher auflöst desto höher die Bildschirmauflösung ist.
man geht quasi weg von festen Auflösung hin design zu skalierbarer geometriedichte und bittiefe bei Texturen.

Das spart vram und kann dann quasi per vram die Qualität bestimmen.
ab dann kann man sagen das mehr pixel zur Auflösung bessere Bildqualität bedeutet jetzt ist es nur rescourcen Verschwendung da die gpu noch nicht die menge and Daten verarbeiten kann.
Was primär am Datendurchsatz beim vram und am L1-L2 cache der gpu liegt.
neben der immens gesteigerten cpu drawcalls die je größer die Geometrie wird ansteigt.

Umgehen lässt sich das nur durch split frame rendering und das wird auch die Zukunft sein mcm GPu mit einen Baukasten gpu und einer min cpu drawcalls bestimmen lässt.
man wird quasi später Auflösung zu gpu und cpu kombi brauchen.
Das ist zwar heute schon so aber eher aus Mangel an singlethred Leistung als durch multi core drawcalls.
Den das ist mit dx12 und vulkan möglich. Ist nur was mehr arbeit nen eigenen server thread im OS anzulegen der die cpu drawcalls auf alle thread der cpu aufteilt.
Komisch das nvidia das seit Jahren anbietet neu wird nur sein das diesmal dedizierte gpu angesprochen werden.
Und das OS mehr als nur einen mainthread akzeptieren muss.
Gut möglich das durch diese mcm gpu endlich das Jahrzehnte geltende zwang auf hohe singlecore takt aufgehoben wird in games.
und in der gpu ein arm chip ist der das bild quasi koordiniert
Damit kein tearing zwischen den split frames auftritt.
Komisch das dieser Ansatz schon 2001 gab mit 3dfx nur das die api nicht directx war.

Zu vram aktuell ist quasi alles auf 96dpi und bittiefe je Auflösung limitiert
Sd quasi 640-480 64bit
HD 1280 720 128bit
FHD 256bit
WqhD 512bit

game engines ab 2014 ermöglichten erstmals mehr als nur 256bit auf FHD anzuwenden.
hier ist Vorreiter ubisoft und square enix und später Epic.
Dunia, anvil next, snowdrop, foundation engine und Unreal engine 4
Was allen den Konsolen zu verdanken ist.

Ganz spät also erst 2017 kam noch bethesda dazu
namentlich
idtech,void und cry engine was mehr ein lizenz ding war (prey 2016)
theoretisch auch crytec cryengine ab 5
Theoretisch deswegen das kein crysis bei cry engine 5 gab also es quasi keine demo zur engine gab.
Deren eigene online abzock spiele warface oder huntdown sind eine Beleidigung.
Die yerli Brüder haben die Firma bis aktuell öfter fast in die Insolvenz gezwungen.
Anstatt die engine weiter zu entwickeln und eine community aufzubauen wie epic es macht, wollen die quasi eine Abhängigkeit damit die engine per abo vermietet wird an publisher. Worauf sich nur indie studios aus asien einlassen weil da ein kasino modell legal ist.
Und zusätzlich Beteiligung an Umsatz.

Technisch ist die cry engine grandios aber deren Geschäftsgebaren versaut größeres.

Was an Auflösung an Bildqualität ausmacht liegt primär am design der games.
Da ist die dargestellte Auflösung des monitors egal das kann 1080p oder 8k sein.
Einen unterschied sieht man lediglich beim alaising.
Klar wirken 0,03mm deutlich schärfer oder 0,07 auf 32zoll
Die alternative ist höhere Bildwiederholungsraten also ab 100hz
Aber diese muss man erst berechnet werden können sonst entsteht ein tearing
Wenn schlimm wird ein art slomo Effekt und stottern im bild .
Das wichtige ist konstante fps viel macht auch Reflexionen im bild oder Beleuchtung-schatten aus. egal welche Auflösung
Der Farbfilter lässt auch pc Grafik real wirken.
Das optimum ist pathtraycing aber dafür reichen die aktuellen gpu nicht aus das in mehr als nur SD darzustellen, was auch an den api`s liegt.
Was möglich ist sieht man in der Werbung von Produkten wie autos oder Technik Vorstellungen.
Sprengbilder sind quasi in raytracing erstellt worden.
Das in Echtzeit darzustellen wäre der Traum.

Die rtx3090 ist derzeit massivst cpu limitiert das sollte man im Kopf haben.
Bin echt gespannt wie viel die neu zen3 Architektur noch mehr aus nvidia ampere rausholt in fps in FHD wqhd und 4k.
Quasi geht keiner auf die gpu load ein bei den test was sehr bedauerlich ist.
 
Zuletzt bearbeitet:
Nett dass du mich so schnell in eine Schublade steckst, nur weil ich die Entwicklung kritisiere :D
Aber klar, schließe ruhig von einem Punkt/Thema aufs große ganze.
Und die Beleidigung kannst du dir sonst wohin stecken.
welche Beleidigung denn bitte?? du stellst doch alles mögliche als doof dar..netflix..tv..und die ganze technik welche du in deinen Post als gefärlich usw beschreibst sorry da fragt man sich schon was tut der gute dann im pc forum? wie ein veganer der beim metzger steht!
 
Bei 4k kann ich noch einen Nutzen erkennen, bei 8k fällt mir das extrem schwer. Insbesondere wenn man das mit den Kosten vergleicht.

Irgendwann, wenn wir Quantencomputer haben, mag das eh quasi kostenlos sein und wir können nahezu beliebig hohe Auflösungen mit belieben hohem Realismus berechnen.

Bis dahin bleibe ich bei 4k und hoffe, dass man dort so realistisch wie möglich Szenen rendern kann. Da ist ja auch noch vieeel Luft nach oben, da ist die Auflösung das geringste Problem!

Stimmt zwar ABER
das hat man zu 4K, 1080p usw. auch gesagt.
Bei der nächsten Grafikkartengeneration (~2022) sollte die ~4070 die Leistung einer 3090 haben und da kann man die Spiele von 2020 noch einmal testen (mit einer 4080/4090) :D
Also genauso wie immer zuvor.
(was vorher "unmöglich" war geht auf einmal und eine weitere Genration klappt das dann auch ganz gut)

Techniken wie Free / G-Sync (für einige auch DLSS) sorgen dafür das man auch keine 60/120+ FPS mehr braucht.
 
Letzten Endes auch nur ne' Marketing-Nummer von Nvidia, um sich irgendwie von den neuen Konsolen abzusetzen,
die ja bekanntlich mit 4K "und" 120fps werben. Und wie den meisten halbwegs Belesenen bekannt sein sollte, sind das auch nur weitgehend leere Versprechungen, genau so wie schon bei XBox One und PS4...

Wer da von 4K @ 120Fps träumt, wird vermutlich eher ne herbe Enttäuschung erleben...

Entweder beziehen sich solche Behauptungen auf weniger anspruchsvolle oder ältere Spiele, Spiele bei denen die Details oft stark reduziert sind oder schlicht auf Szenarien mit niedrigeren fps.

Die 3090 ist genauso wenig ne 8K Karte wie PS5 und XBox Series X 4K-120fps Konsolen sind...

Das traurige daran ist dass solche "Marketing Spielereien" im Prinzip gar nicht notwendig sind, und gerade für belesene Kunden eher wie ein Versuch aussehen, weniger mit der Thematik vertraute Kunden zu locken, die auf solche Schlagworte reagieren...

Gerade bei Kunden die 1500€ für ne GPU ausgeben, würde ich entsprechendes Wissen mal voraussetzen -
oder zumindest allgemeine Skepsis, sofern es sich um neue Produkte handelt...

Dass die 3090 endlich mal ne Solide 4K Karte ist die auch in modernen Titeln ordentliche Leistung bei guter bis sehr guter Bildqualität abliefern kann reicht da wohl nicht. Dass man sowas noch mit unsachlichen 8K Behauptungen "aufhübschen" muss ist mir echt ein rätsel... Aber das eben Marketing.

Da bin ich nur froh, dass wir langsam aber sicher in Auflösungsbereiche vorstoßen, bei denen eine weitere Steigerung schlicht sinnfrei ist. Bei Smartphones ist ja schon so weit. Auflösungen von mehr als 16K werden sich vermutlich nie im Consumerbereich etablieren. Was hoffentlich dann endlich dazu führt, dass sich Hersteller vermeht der Qualität widmen...


Ist doch schon bestätigt, dass Watch Dogs auf den neuen Konsolen nur mit 4k 30fps läuft. Tetris geht wohl mit 120 fps...
 
Sieht schon geil aus, selbst wenn ich es nur auf 4k schauen kann :)


Mich wundert ein wenig, wie wenig die 16 Kern CPU ausgelastet ist. Maximal mal 20%...
 
Zurück