Geforce RTX 3090: Nvidia glaubt an 8K-Gaming mit 60 Fps

Denke ich eher nicht. Es kommt auf die Einstellungen an. Mit "Mittel" geht das auch mit einer 2080 Ti (insofern der VRAM reicht), dürfte mit einer 3090 ganz gut klappen, mit "Ultra" wird es natürlich vermutlich nichts. Aber so oder so, solange man kein 8k Display hat ist 4k + max Settings immer zu bevorzugen.

Denke auch dass das mit dem Vram und der Rohleistung machbar ist. Klar ist dann etwas Feintuning nötig, aber der Mehrwert ein sehr hohen Auflösung gleicht das locker aus.
Passendes Panel ist da eher ein Problem.
 
Na habe ich mir es doch gedacht.
8K 60 Native ist aktuell mit einer Karte nicht möglich, war ja irgendwie klar das DLSS zum Einsatz kommt.

Da bin ich ja mal auf Native 4K Benchmarks gespannt, Leistung müsste ja da vorhanden sein.
 
Wer den Unterschied zwischen 4K und 8K bei gleicher Displaygröße und Entfernung nicht sieht sollte dringend mal einen Termin beim Augenarzt ausmachen.

Ach ja? So eine Pauschalaussage ist einfach dumm. Oder siehst du auf 100m auf einem 55zoller den Unterschied zwischen FullHD und 8K? Nein? Ab welcher Entfernung und welcher Displaygröße sieht man denn einen Unterschied? Der Unterschied sollte auch groß genug sein, dass man einen echten Mehrwert hat und nicht erst die Augen zukneifen muss um konzentriert gerade so abschätzen zu können welcher TV 4K und welcher 8K darstellt. Entscheidend ist natürlich noch der Visus der jeweiligen Person. Sprich, seine Sehleistung. Visus 100 ist vollkommen ok, aber einen Unterschied sieht man dann erst wenn man ganz dich herantritt. Definitiv kein Grund zum Augenarzt zu gehen. Ich habe eine Visus von 160. Das ist super, aber für mich hat 8K bei vernünftigen Abstand keinen Mehrwert.
 
Zuletzt bearbeitet:
Hängt extrem vom Spiel und Setting ab. Selbst mein Gtx1070 schafft in vielen Games in mittel-hoch 4k bei 60hz. Aber in manchen Spielen halt auch nur 20hz...wenn ich da an Star Citizen, FS2020 denke. Da sind sicher schon 4k und 60hz für eine rtx3090 eine Herausforderung(in mind hohen Details).
 
Zuletzt bearbeitet von einem Moderator:
Schön, wenn Grafikkarten per KI demnächst das komplette Bild selbst zeichnen und die Grafikengine eine Kaffeepause nehmen kann.
Also wenn mir die Grafikkarten demnächst mein geliebtes Ultima Underworld in der DOSBOX auf 4K hochskalieren - und es sieht dann auch noch so aus, also ohne Neuinterpretationen von Grafikassets -, dann bin ich dabei. ;)
Ansonsten würde ich mal sagen, sollen die Kerle doch alle in ihrer eigenen Welt leben, ich bleibe bei realen Dingen.
Ich möchte Dinge so erleben, wie der Designer es vorgesehen hat, nicht wie NVidia sich das denkt, wie es aussehen könnte, wenn eine KI sich selbst etwas dazu ausdenkt und etwas hineininterpretiert.
Zudem wurden Marketingzahlenspielereien und ausgedachte Fantastereien damals in der guten alten Zeit noch in weiße Jacken gesteckt und abgeholt, heute sind das hochbezahlte "Freigeister", die wie Politiker und alte Wundermittelverkäufer im guten alten Wilden Westen auf Kundenfang gehen.
 
Schön, wenn Grafikkarten per KI demnächst das komplette Bild selbst zeichnen und die Grafikengine eine Kaffeepause nehmen kann.
Also wenn mir die Grafikkarten demnächst mein geliebtes Ultima Underworld in der DOSBOX auf 4K hochskalieren - und es sieht dann auch noch so aus, also ohne Neuinterpretationen von Grafikassets -, dann bin ich dabei. ;)
Ansonsten würde ich mal sagen, sollen die Kerle doch alle in ihrer eigenen Welt leben, ich bleibe bei realen Dingen.
Ich möchte Dinge so erleben, wie der Designer es vorgesehen hat, nicht wie NVidia sich das denkt, wie es aussehen könnte, wenn eine KI sich selbst etwas dazu ausdenkt und etwas hineininterpretiert.
Du fällst auf das "KI" Buzzword herein. Das neuronale Netz der "KI" denkt sich überhaupt nichts dazu, es versucht bloß ein lückenhaftes Bild zu vervollständigen. Damit das gut funktioniert, hat man das Netz davor mit "echten" 8K bzw. laut nVidia sogar 16K Material trainiert und bewertet.

Vom Prinzip her ist das also so ähnlich wie "Light-Baking". Anstatt Lichtquellen aufwendig in Echtzeit zu simulieren, lässt man eine Workstation die ganze Szene einmal statisch ausleuchten, und legt dann diese Info als Textur drüber. Solche Tricks sind seit Jahren gang und gäbe, einfach weil die "korrekte" Art der Berechnung viel zu lange dauert. Ihr glaubt gar nicht wie viel in Spielen getrickst wird, die physikalisch korrekte Berechnung ist da eher Ausnahme als Regel, auch wenn es Anzeichen gibt, dass sich dies in den nächsten Jahren ändert (Stichwort Physically based rendering).

In der Spieleentwicklung gilt seit jeher, besser gut aussehender, performanter Pfusch, als langsam laufende Simulation. Mit Erfolg, die viel gepriesenen "God-Rays" im ersten Crysis waren zum Beispiel nur 2D Postprocessing Schummelei. nVidia setzt diesen Trend nur konsequent fort. Ob das Ergebnis dann mit dem Hype mithält wird man sehen.
 
8K/60FPS ist beeindruckend, aber interessiert mich weniger. Wichtig wäre mir, dass VR (mit SS ca 4K-5K oder mehr) stabil mit >80FPS rennt. Auch WQHD sollte in den meisten Spielen möglichst mit >120FPS@max laufen. Dann wäre die Karte super. Einen 8K-Monitor hat doch keine Sau. Selbst 4K-Monitore sind nur recht spärlich verbreitet. Außerdem bezieht sich 8K/60FPS natürlich auf DLSS2.0 und das ist nur mit wenigen Spielen möglich. Trotzdem dürfte die RTX3090 ein Biest sein.
 
Wozu 8k beim gaming? Auf was? 65 zoll vor der Nase? Ich bin von 4k 40zoll auf 27wqhd runter, weil 4k schon völliger Blödsinn beim spielen ist.
 
"Geforce RTX 3090: Nvidia glaubt an 8K-Gaming mit 60 Fps"

Der Glaube versetzt Berge. Wobei wir hier eher von Meinen sprechen sollten. Nvidia meint... :D Aber die haben ja auch ein paar Spiele mit RT rausgebracht, warum dann nicht auch 1-2 Studios unterstützen, die einen bis zwei Toptitel mit der Hilfe von Nvidia, nach ein paar Monaten oder Jahren, dann auch in 8k und 60 FPS zum Laufen bringen?

Einfach mal abwarten was kommt.
 
Und genau das pisst mich gehörig an!
Das ist nichts anderes als irreführendes Marketing. Die neuen Karten werden mit Sicherheit Top Leistung bieten, aber dieses DLSS Leistungsboosting hat in Benchmarks nichts zu suchen!

Gerade in Benchmarks sollten solche Features prinzipiell aufgelistet werden. Wenn wie im Fall von Death Stranding die DLSS Bilder bereits besser aussehen als 4k Nativ und gleichzeitig mehr FPS liefern, spricht nichts dagegen. Dasselbe gilt für 8k oder sonstige Trends.

Solange der Spieler selbst komplette Kontrolle über die Einstellungen hat, spricht absolut nichts dagegen!:motz:

So kann man schnell sagen dass eine 1080Ti kein Land gegen eine 3070 sieht, wenn man DLSS 4K verwendet :wall:

Die 3070 und alle Ampere werden natürlich mehr Features haben als Pascal. Daran wird sich nichts ändern, auch wenn es den Altbesitzern nicht gefällt. Wem die Leistung einer 1080 Ti ausreicht, soll doch die alte Karte behalten.
Wen stört das außer dem Ego und vielleicht dem E-peen? :devil:

Schön, dass das upscaling so gut funktioniert, mich interessiert aber die "reale" Leistung der Karte.

8k-Auflösung benötigt 4x die Rechenleistung von 4k. Das erreichst du in linearer Renderingleistung nicht einmal in 10 Jahren. Außerdem werden die Hardwareredakteure von PCGH die Karten auch ohne DLSS testen. Wenn du nur auf die Benchmarks warten kannst, klärt sich alles auf.

Traurig das DLSS jetzt schon die neue bis zu Angabe wird. Echtes 8K dann wohl in Mass Effect 1 oder so. Die Karten sollen erstmal RDR2 in 4K@60 schaffen und ohne groß die Einstellungen zu nutzen. Spannender wäre es gewesen 4K mit 144FPS in Games aufzuzeigen. Aber sieht wohl so aus als müsste man den Konsolen Marketing Paroli bieten mit diesem Geschwafel.

Ähm, 4k@144PFS ist aktuell noch nicht durchgängig möglich. Desweiteren wie willst du du das in der Masse erreichen? Die Monitore und Grafikkarten mit HDMI 2.1 kommen erst mit Ampere für die Vermögenden. :ugly:

8K mit DLSS, is schummelei.
punkt.

Komischweise interessiert euch das bei AMD und den Konsolen nie. Ein wenig Heuchlerisch, nicht?

Du kannst natürlich gerne die Millionen Pixel in nativer Auflösung nachzählen. Andere werden in der Zwischenzeit eher spielen als sich künstlich aufregen!

man rendert in irgend einer kleinen auflösung und rechnet das dann auf 8k hoch und posaunt ganz wichtig los: "wir können spiele in 8k blablubb...."

Für die Early-Adopter ist das ein nettes Feature. Jeder andere kann noch 10 Jahre warten bis diese Leistung im Massenmarkt für günstige Preise ankommt. Wo liegt das Problem?

ist das heutzutage plötzlich völlig in ordnung?!

Außer der ständig gespielten Empörung im PCGH-Forum ist anscheinend alles in Ordnung. :rollen:
 
8K mit DLSS wär super.
Auch ohne DLSS würde ichs den Auflösungsfreunden wünschen.
Denn wenn der Trend zu 8K für die Luxuskarten (frühere Tis, Titans) geht, heißt das, dass die 4K Bildschirme und (für 4K ausreichend leistungsfähigen)Karten nochmal deutlich günstiger werden.
Also ja: 8K, immer her damit! Mir persönlich reichen niedrigere Auflösungen, gerne mit hohen FPS.
 
Pfffft... 8k, ja sicher. Das wird erst mit der 5080Ti möglich werden. Ich hab' euch schon mal ein Bild mitgebracht, ist nämlich schon geleakt:

RTX 5080Ti.jpeg
 
Hier mal ein alter Beitrag von mir verlinkt, der (hoffentlich) einige aufklären sollte.

Ab wann braucht's 2k, 4k, 8k?

Auflösung vs. Diagonale vs. Blickabstand aufgeschlüsselt:
https://extreme.pcgameshardware.de/...-mit-120-hertz-auf-27-zoll-6.html#post8483619




Zusammenfassung:
Es kommt darauf an, wie groß euer Monitor ist, als auch wie nah ihr dran sitzt, versus eurer Sehstärke.
Alleine zu sagen "ab 32" braucht's Auflösung XY" ist auch Unfug, denn idR. rückt je größer der Monitor weiter hinter,
sprich der Blickabstand wird größer.

Bei 24" sitze ich persönlich mittlerweile im Bereich 40-60cm entfernt, je nachdem was ich an der Kiste mache (Spiele, CAD, Browsen, Film etc.).
4K kann also teilweise vielleicht Sinn machen in meinem Fall, optimal wären aber 1440P. 8K wäre völlig für die Katz.

Bei TV und Leinwand ist teilweise 4K schon total sinnfrei, auch bei 65" Geräten.


Fazit:
Einfach individuell ausrechnen, welche Auflösung in eurem Fall jeweils Sinn ergibt.
Was manch einer aber vergisst: Bei 3D ist das alles etwas anders, Stichwort Kantenglättung vs. Schärfung.
Oftmals ist die Lösung einfach VSR/DSR zu nutzen statt nativ.
Jup, 8K heißt nicht gleich, dass man auch ein 8K Display benötigt, wer nah dransitzt, der könnte durch 8K
beim ein oder anderen Spiel durchaus Vorteile im Bild sehen, vor allem sofern kein AA und/oder Schärfefilter genutzt werden.
Das werden vermutlich aber die ganz ganz wenigen Ausnahmefälle sein ;)
 
Zuletzt bearbeitet:
Zurück