• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3090: Nvidia glaubt an 8K-Gaming mit 60 Fps

geist4711

Software-Overclocker(in)
Beruhige dich. Was ist wohl schlimmer 8k bei Konsolen oder bei einer Grafikkarte hochgerechnet.

Natürlich schlimmer bei den Konsolen.

Gesendet von meinem D6603 mit Tapatalk


darum gehts garnicht und das ist der vergleich von äpfeln und birnen, konsole und garfikkarte.

aufregen tu ich mich auch nicht,
ich stelle fest und hinterfrage.

darf man das jetz auch nimmer?
 

Dragon AMD

Volt-Modder(in)
darum gehts garnicht und das ist der vergleich von äpfeln und birnen, konsole und garfikkarte.

aufregen tu ich mich auch nicht,
ich stelle fest und hinterfrage.

darf man das jetz auch nimmer?
Natürlich darfst du das.

Aber warum wurde zum Beispiel Dlss gemacht.

Einfach um nicht noch mehr Watt aus der Steckdose zu saugen.

Denn es sieht ja im Vergleich zu nativ 4k echt nicht schlecht aus.

Vorallem mehr Watt mehr Hitze.

Gesendet von meinem D6603 mit Tapatalk
 

Lexx

Lötkolbengott/-göttin
So geht High-End/Technologischer Fortschritt/R-Evolution.
4K 8K... brauch ich nicht, ich downsample.

Den restlichen Rotz im Thread lass ich mal umkommentiert.
 

Downsampler

BIOS-Overclocker(in)
Das ist das erste Spiel das ich gesehen habe, wo die Telefonhäuschen in 8K dargestellt werden müssen, damit sie nicht verschwommen aussehen.

Vielleicht hat der Jensen das durch seine Glasbausteine fotografiert? :lol:

Das ist kein Marketing mehr, das ist Gehirnzellenfolter.....hört bitte damit auf.
 

owned139

BIOS-Overclocker(in)
Ich wollt's nur mal ein wenig verdeutlichen: Von nativen 8K bei 60 Fps sind wir noch ein wenig weiter weg ;) Selbst ohne Raytracing und wenn ich die Leistung der RTX 3090 großzügig auf 2× RTX 2080 Ti veranschlagen würde (dann käme man in einigen der etwas weniger anspruchsvollen aktuellen Spielen aber wohl langsam in spielbare Bereiche).

Gruß,
Phil

Forza Horizon 4 unterstützt kein DLSS, ist also natives 8K. Selbiges bei Apex und RS6.
 

Snowhack

BIOS-Overclocker(in)
Ich sehe die ersten Test schon vor mir von den neue Karten.

Von der Nvidia Folie wird nicht viel übrig bleib hab ich das Gefühl in Unabhängigkeit Test.
 

Pu244

Lötkolbengott/-göttin
Die Idee ist schon uralt, das wollte man schon in den 80ern und besonders den 90ern machen. Einfach die Auflösung irgendwie aufblasen, so spart man sich Rechneleistung. Damals nutze man noch einfach interpolation und die Auflösung war so gering, dass es sofort aufgefallen ist, da man sich dort keine Fehler leisten konnte.

Heute hat man ganz andere Techniken und die Auslösung ist so hoch, dass eventuelle Unzulänglichkeiten nichtmehr in Auge fallen.

Angeblich erkennt das menschliche Auge ab 16K keinen Unterschied mehr.

Kommt darauf an, was du darstellst und wie groß der Monitor ist. Vorallem das erste ist enorm wichtig. Wenn man einen Film entspannt ansieht, dann wird es oft schwer fallen, einen Unterschied zwischen Full HD und 4K zu erkennen. Wenn man hingegen ein Bild mit dem Treppenstufeneffekt betrachtet, dann dürfte 16K auf einem 32" Monitor nicht ausreichen.
 

RtZk

Lötkolbengott/-göttin
Wozu 8k.

Es wurden Tests gemacht mit 4k TV und 8k TV.

Sämtliche die das beurteilen sollten haben keinen bzw eine sehr geringe Verbesserung gesehen.

Was wichtiger ist ist nativ 4k mit 144fps dauerhaft dazu noch Raytracing.

Danach kann man vielleicht mal 8k in Angriff nehmen.

Gesendet von meinem D6603 mit Tapatalk

Wer den Unterschied zwischen 4K und 8K bei gleicher Displaygröße und Entfernung nicht sieht sollte dringend mal einen Termin beim Augenarzt ausmachen.
 

Mephisto_xD

BIOS-Overclocker(in)
Analog zum Fernseher-Trend 8K? Wo ist denn da bitte ein Trend auszumachen? 4K hat sich ja noch nicht mal komplett durchgesetzt.
Ich würde schon sagen, dass sich 4K bei Fernsehern durchgesetzt hat. Klar, nicht jeder rennt in den Laden um aufzurüsten. Aber wenn ich mir die Neuware so ansehe, gibts FullHD eigentlich nur noch im Ramschregal. Ab 400€ gibts dann eigentlich nur noch 4K bzw. UltraHD - wobei die Bildqualität abseits von der Auflösung vermutlich nicht allzu berauschend ist.

Trotzdem: Zu sagen "4K Fernseher haben sich nicht komplett durchgesetzt" ist in etwa äquivalent zu "SSDs in PCs haben sich nicht komplett durchgesetzt". Sicherlich nicht falsch, es werden immer noch Gurken mit mechanischen Festplatten als Bootlaufwerk verkauft, und Opas XP-Rechner funktioniert ja auch ohne. Trotzdem gehört eine SSD-Bootplatte heute zum guten Ton.
 

RtZk

Lötkolbengott/-göttin
Für 8K Gaming ist diese Karte doch viel zu langsam...

Denke ich eher nicht. Es kommt auf die Einstellungen an. Mit "Mittel" geht das auch mit einer 2080 Ti (insofern der VRAM reicht), dürfte mit einer 3090 ganz gut klappen, mit "Ultra" wird es natürlich vermutlich nichts. Aber so oder so, solange man kein 8k Display hat ist 4k + max Settings immer zu bevorzugen.
 

clums

Komplett-PC-Käufer(in)
Als die 20er Reihe veröffentlich wurde, hieß es, die sei für 4k @ 60hz. Nun sind wir bei 8k @ 60hz. Ich habe mir letztes Jahr im Februar nen neuen PC mit ner OC'ed 2080er und einem 21:9 @ 1440 Moni zusammengestellt. Da habe ich in vergleichbarer Größe keinen 4k Monitor gefunden, der im P/L mithält. Wer nun also über 3000 für nen vernünftiges 8k-Display übrig hat, das auch die entsprechende Größe mitbringt, der wird die paar Euros für die GraKa auch haben. Aber für mich ist die neue Generation total uninteressant, bis Spiele die Features der neuen Ampere zwingend erfordern. Selbst die neue WD-Demo laggt an entscheidenen Stellen.
Jede Generation die gleiche Aufregung.
 

4B11T

Software-Overclocker(in)
8K 30FPS via Shadowplay und dann bei Youtube hochladen... selten so gelacht. Wenn man sieht, was auf Youtube bei manchem 4K-Material für Schlieren-Matsch rauskommt, ohne, dass der Uploader dies beeinflussen kann, dann will ich das bei 8K gar nicht wissen. Kann ich mangels 8K Display aber auch zum Glück nicht nachtesten.
 

Mephisto_xD

BIOS-Overclocker(in)
8K 30FPS via Shadowplay und dann bei Youtube hochladen... selten so gelacht. Wenn man sieht, was auf Youtube bei manchem 4K-Material für Schlieren-Matsch rauskommt, ohne, dass der Uploader dies beeinflussen kann, dann will ich das bei 8K gar nicht wissen. Kann ich mangels 8K Display aber auch zum Glück nicht nachtesten.
:rollen:

Wieder einer mit ganz viel Ahnung. 4K Youtube sieht auch auf einem FullHD Monitor deutlich besser aus als FullHD Youtube, einfach weil die Bitrate höher und der Kompressionsalgorithmus besser ist. Bei 8K auf einem 4K Bildschirm wird es ähnlich sein.
 

Gurdi

Kokü-Junkie (m/w)
Denke ich eher nicht. Es kommt auf die Einstellungen an. Mit "Mittel" geht das auch mit einer 2080 Ti (insofern der VRAM reicht), dürfte mit einer 3090 ganz gut klappen, mit "Ultra" wird es natürlich vermutlich nichts. Aber so oder so, solange man kein 8k Display hat ist 4k + max Settings immer zu bevorzugen.

Denke auch dass das mit dem Vram und der Rohleistung machbar ist. Klar ist dann etwas Feintuning nötig, aber der Mehrwert ein sehr hohen Auflösung gleicht das locker aus.
Passendes Panel ist da eher ein Problem.
 

MaW85

Software-Overclocker(in)
Na habe ich mir es doch gedacht.
8K 60 Native ist aktuell mit einer Karte nicht möglich, war ja irgendwie klar das DLSS zum Einsatz kommt.

Da bin ich ja mal auf Native 4K Benchmarks gespannt, Leistung müsste ja da vorhanden sein.
 

Scorpionx01

Software-Overclocker(in)
Wer den Unterschied zwischen 4K und 8K bei gleicher Displaygröße und Entfernung nicht sieht sollte dringend mal einen Termin beim Augenarzt ausmachen.

Ach ja? So eine Pauschalaussage ist einfach dumm. Oder siehst du auf 100m auf einem 55zoller den Unterschied zwischen FullHD und 8K? Nein? Ab welcher Entfernung und welcher Displaygröße sieht man denn einen Unterschied? Der Unterschied sollte auch groß genug sein, dass man einen echten Mehrwert hat und nicht erst die Augen zukneifen muss um konzentriert gerade so abschätzen zu können welcher TV 4K und welcher 8K darstellt. Entscheidend ist natürlich noch der Visus der jeweiligen Person. Sprich, seine Sehleistung. Visus 100 ist vollkommen ok, aber einen Unterschied sieht man dann erst wenn man ganz dich herantritt. Definitiv kein Grund zum Augenarzt zu gehen. Ich habe eine Visus von 160. Das ist super, aber für mich hat 8K bei vernünftigen Abstand keinen Mehrwert.
 
Zuletzt bearbeitet:

sonny1606

Freizeitschrauber(in)
Hängt extrem vom Spiel und Setting ab. Selbst mein Gtx1070 schafft in vielen Games in mittel-hoch 4k bei 60hz. Aber in manchen Spielen halt auch nur 20hz...wenn ich da an Star Citizen, FS2020 denke. Da sind sicher schon 4k und 60hz für eine rtx3090 eine Herausforderung(in mind hohen Details).
 
Zuletzt bearbeitet:

BxBender

BIOS-Overclocker(in)
Schön, wenn Grafikkarten per KI demnächst das komplette Bild selbst zeichnen und die Grafikengine eine Kaffeepause nehmen kann.
Also wenn mir die Grafikkarten demnächst mein geliebtes Ultima Underworld in der DOSBOX auf 4K hochskalieren - und es sieht dann auch noch so aus, also ohne Neuinterpretationen von Grafikassets -, dann bin ich dabei. ;)
Ansonsten würde ich mal sagen, sollen die Kerle doch alle in ihrer eigenen Welt leben, ich bleibe bei realen Dingen.
Ich möchte Dinge so erleben, wie der Designer es vorgesehen hat, nicht wie NVidia sich das denkt, wie es aussehen könnte, wenn eine KI sich selbst etwas dazu ausdenkt und etwas hineininterpretiert.
Zudem wurden Marketingzahlenspielereien und ausgedachte Fantastereien damals in der guten alten Zeit noch in weiße Jacken gesteckt und abgeholt, heute sind das hochbezahlte "Freigeister", die wie Politiker und alte Wundermittelverkäufer im guten alten Wilden Westen auf Kundenfang gehen.
 

Karotte81

Software-Overclocker(in)
omg, das war echt billig... ich denke jeder kann sich ne Lederjacke leisten.. es sei denn, sie ist von Belstaff ;P

Irgendwie muss man sich seine Ausgaben ja schön reden und sich dadurch besser fühlen. Thats life. Da die meisten Bürger arbeiten, können sich die meisten sowas auch leisten, wenn man denn will.
 

Mephisto_xD

BIOS-Overclocker(in)
Schön, wenn Grafikkarten per KI demnächst das komplette Bild selbst zeichnen und die Grafikengine eine Kaffeepause nehmen kann.
Also wenn mir die Grafikkarten demnächst mein geliebtes Ultima Underworld in der DOSBOX auf 4K hochskalieren - und es sieht dann auch noch so aus, also ohne Neuinterpretationen von Grafikassets -, dann bin ich dabei. ;)
Ansonsten würde ich mal sagen, sollen die Kerle doch alle in ihrer eigenen Welt leben, ich bleibe bei realen Dingen.
Ich möchte Dinge so erleben, wie der Designer es vorgesehen hat, nicht wie NVidia sich das denkt, wie es aussehen könnte, wenn eine KI sich selbst etwas dazu ausdenkt und etwas hineininterpretiert.
Du fällst auf das "KI" Buzzword herein. Das neuronale Netz der "KI" denkt sich überhaupt nichts dazu, es versucht bloß ein lückenhaftes Bild zu vervollständigen. Damit das gut funktioniert, hat man das Netz davor mit "echten" 8K bzw. laut nVidia sogar 16K Material trainiert und bewertet.

Vom Prinzip her ist das also so ähnlich wie "Light-Baking". Anstatt Lichtquellen aufwendig in Echtzeit zu simulieren, lässt man eine Workstation die ganze Szene einmal statisch ausleuchten, und legt dann diese Info als Textur drüber. Solche Tricks sind seit Jahren gang und gäbe, einfach weil die "korrekte" Art der Berechnung viel zu lange dauert. Ihr glaubt gar nicht wie viel in Spielen getrickst wird, die physikalisch korrekte Berechnung ist da eher Ausnahme als Regel, auch wenn es Anzeichen gibt, dass sich dies in den nächsten Jahren ändert (Stichwort Physically based rendering).

In der Spieleentwicklung gilt seit jeher, besser gut aussehender, performanter Pfusch, als langsam laufende Simulation. Mit Erfolg, die viel gepriesenen "God-Rays" im ersten Crysis waren zum Beispiel nur 2D Postprocessing Schummelei. nVidia setzt diesen Trend nur konsequent fort. Ob das Ergebnis dann mit dem Hype mithält wird man sehen.
 

deady1000

Volt-Modder(in)
8K/60FPS ist beeindruckend, aber interessiert mich weniger. Wichtig wäre mir, dass VR (mit SS ca 4K-5K oder mehr) stabil mit >80FPS rennt. Auch WQHD sollte in den meisten Spielen möglichst mit >120FPS@max laufen. Dann wäre die Karte super. Einen 8K-Monitor hat doch keine Sau. Selbst 4K-Monitore sind nur recht spärlich verbreitet. Außerdem bezieht sich 8K/60FPS natürlich auf DLSS2.0 und das ist nur mit wenigen Spielen möglich. Trotzdem dürfte die RTX3090 ein Biest sein.
 

Mylo

Software-Overclocker(in)
Wozu 8k beim gaming? Auf was? 65 zoll vor der Nase? Ich bin von 4k 40zoll auf 27wqhd runter, weil 4k schon völliger Blödsinn beim spielen ist.
 

Basileukum

Software-Overclocker(in)
"Geforce RTX 3090: Nvidia glaubt an 8K-Gaming mit 60 Fps"

Der Glaube versetzt Berge. Wobei wir hier eher von Meinen sprechen sollten. Nvidia meint... :D Aber die haben ja auch ein paar Spiele mit RT rausgebracht, warum dann nicht auch 1-2 Studios unterstützen, die einen bis zwei Toptitel mit der Hilfe von Nvidia, nach ein paar Monaten oder Jahren, dann auch in 8k und 60 FPS zum Laufen bringen?

Einfach mal abwarten was kommt.
 

TheGoodBadWeird

Software-Overclocker(in)
Und genau das pisst mich gehörig an!
Das ist nichts anderes als irreführendes Marketing. Die neuen Karten werden mit Sicherheit Top Leistung bieten, aber dieses DLSS Leistungsboosting hat in Benchmarks nichts zu suchen!

Gerade in Benchmarks sollten solche Features prinzipiell aufgelistet werden. Wenn wie im Fall von Death Stranding die DLSS Bilder bereits besser aussehen als 4k Nativ und gleichzeitig mehr FPS liefern, spricht nichts dagegen. Dasselbe gilt für 8k oder sonstige Trends.

Solange der Spieler selbst komplette Kontrolle über die Einstellungen hat, spricht absolut nichts dagegen!:motz:

So kann man schnell sagen dass eine 1080Ti kein Land gegen eine 3070 sieht, wenn man DLSS 4K verwendet :wall:

Die 3070 und alle Ampere werden natürlich mehr Features haben als Pascal. Daran wird sich nichts ändern, auch wenn es den Altbesitzern nicht gefällt. Wem die Leistung einer 1080 Ti ausreicht, soll doch die alte Karte behalten.
Wen stört das außer dem Ego und vielleicht dem E-peen? :devil:

Schön, dass das upscaling so gut funktioniert, mich interessiert aber die "reale" Leistung der Karte.

8k-Auflösung benötigt 4x die Rechenleistung von 4k. Das erreichst du in linearer Renderingleistung nicht einmal in 10 Jahren. Außerdem werden die Hardwareredakteure von PCGH die Karten auch ohne DLSS testen. Wenn du nur auf die Benchmarks warten kannst, klärt sich alles auf.

Traurig das DLSS jetzt schon die neue bis zu Angabe wird. Echtes 8K dann wohl in Mass Effect 1 oder so. Die Karten sollen erstmal RDR2 in 4K@60 schaffen und ohne groß die Einstellungen zu nutzen. Spannender wäre es gewesen 4K mit 144FPS in Games aufzuzeigen. Aber sieht wohl so aus als müsste man den Konsolen Marketing Paroli bieten mit diesem Geschwafel.

Ähm, 4k@144PFS ist aktuell noch nicht durchgängig möglich. Desweiteren wie willst du du das in der Masse erreichen? Die Monitore und Grafikkarten mit HDMI 2.1 kommen erst mit Ampere für die Vermögenden. :ugly:

8K mit DLSS, is schummelei.
punkt.

Komischweise interessiert euch das bei AMD und den Konsolen nie. Ein wenig Heuchlerisch, nicht?

Du kannst natürlich gerne die Millionen Pixel in nativer Auflösung nachzählen. Andere werden in der Zwischenzeit eher spielen als sich künstlich aufregen!

man rendert in irgend einer kleinen auflösung und rechnet das dann auf 8k hoch und posaunt ganz wichtig los: "wir können spiele in 8k blablubb...."

Für die Early-Adopter ist das ein nettes Feature. Jeder andere kann noch 10 Jahre warten bis diese Leistung im Massenmarkt für günstige Preise ankommt. Wo liegt das Problem?

ist das heutzutage plötzlich völlig in ordnung?!

Außer der ständig gespielten Empörung im PCGH-Forum ist anscheinend alles in Ordnung. :rollen:
 

Rollora

Kokü-Junkie (m/w)
8K mit DLSS wär super.
Auch ohne DLSS würde ichs den Auflösungsfreunden wünschen.
Denn wenn der Trend zu 8K für die Luxuskarten (frühere Tis, Titans) geht, heißt das, dass die 4K Bildschirme und (für 4K ausreichend leistungsfähigen)Karten nochmal deutlich günstiger werden.
Also ja: 8K, immer her damit! Mir persönlich reichen niedrigere Auflösungen, gerne mit hohen FPS.
 

I3uschi

Software-Overclocker(in)
Pfffft... 8k, ja sicher. Das wird erst mit der 5080Ti möglich werden. Ich hab' euch schon mal ein Bild mitgebracht, ist nämlich schon geleakt:

RTX 5080Ti.jpeg
 

Jobsti84

Software-Overclocker(in)
Hier mal ein alter Beitrag von mir verlinkt, der (hoffentlich) einige aufklären sollte.

Ab wann braucht's 2k, 4k, 8k?

Auflösung vs. Diagonale vs. Blickabstand aufgeschlüsselt:
https://extreme.pcgameshardware.de/...-mit-120-hertz-auf-27-zoll-6.html#post8483619




Zusammenfassung:
Es kommt darauf an, wie groß euer Monitor ist, als auch wie nah ihr dran sitzt, versus eurer Sehstärke.
Alleine zu sagen "ab 32" braucht's Auflösung XY" ist auch Unfug, denn idR. rückt je größer der Monitor weiter hinter,
sprich der Blickabstand wird größer.

Bei 24" sitze ich persönlich mittlerweile im Bereich 40-60cm entfernt, je nachdem was ich an der Kiste mache (Spiele, CAD, Browsen, Film etc.).
4K kann also teilweise vielleicht Sinn machen in meinem Fall, optimal wären aber 1440P. 8K wäre völlig für die Katz.

Bei TV und Leinwand ist teilweise 4K schon total sinnfrei, auch bei 65" Geräten.


Fazit:
Einfach individuell ausrechnen, welche Auflösung in eurem Fall jeweils Sinn ergibt.
Was manch einer aber vergisst: Bei 3D ist das alles etwas anders, Stichwort Kantenglättung vs. Schärfung.
Oftmals ist die Lösung einfach VSR/DSR zu nutzen statt nativ.
Jup, 8K heißt nicht gleich, dass man auch ein 8K Display benötigt, wer nah dransitzt, der könnte durch 8K
beim ein oder anderen Spiel durchaus Vorteile im Bild sehen, vor allem sofern kein AA und/oder Schärfefilter genutzt werden.
Das werden vermutlich aber die ganz ganz wenigen Ausnahmefälle sein ;)
 
Zuletzt bearbeitet:
Oben Unten