Geforce RTX 3090: Nvidia glaubt an 8K-Gaming mit 60 Fps

Ist mit AV1 das Streamen auf Twitch und Co über die CPU jetzt Geschichte?

Und ist das neue DLSS 2.1 im Sinne von "mach mit der Auflösung was du willst, aber halte die 60fps auf jeden Fall konstant"?

Die RTX 3000 Reihe kann auch nur decoden. Zum streamen bedarf es einen Encoder soweit ich weiß und den hat noch keine GPU. Auf den Marketing Folien wurde nichts von einen Encoder erwähnt jedenfalls.

Die ganzen Features sind wirklich geil. Aber das ist mir alles zu Exklusiv. Zuviel hätte wäre wenn. Die meisten Features gehen einfach nicht in den Standard Games, sondern erst in kommenden Games und bis dahin gibt es schon wieder neue Karten.
 
Warum ist die Stimmung hier eigentlich so Anti-DLSS?
Selbst die Tester von PCGH haben gesagt, dass Death Stranding mit DLSS super aussieht und in der Spielpraxis kein Unterschied zur nativen Auflösung zu sehen ist, bzw. es sogar detaillierter aussieht.

Klar kann ich verstehen, dass man die "Wahrheit" sehen möchte – letzten Endes sind rasterisierte Spielebilder doch alles nur Schummelbilder.
Ein komplett durch Pathtracing entstandenes Bild einer mit Photogrammetrie aufgenommenen Umgebung – das wäre von mir aus die fotorealistische "Wahrheit".
Aber bis das möglich ist, ist DLSS doch eine fantastische Technik. Zumal es ja auch abschaltbar ist und verschiedene Modi hat, u.a. auch "Quality" für ein Bild ohne Artefakte oder übertriebene Hinzudichtungen.
 
Die RTX 3000 Reihe kann auch nur decoden. Zum streamen bedarf es einen Encoder soweit ich weiß und den hat noch keine GPU. Auf den Marketing Folien wurde nichts von einen Encoder erwähnt jedenfalls.
Würde mich sehr wundern. Auch um Aufzeichnen zu können muss der Videostream ja irgendwie eingedampft werden, da wird nVidia schon einen Encoder für verbaut haben. Die Frage ist nur, wann Twitch auch AV1 akzeptiert.

Generell sind CPU Encoder aber nicht "tot", denn auch mit der RTX 3000er Serie bleiben (vermutlich) die altbekannten Nachteile von dedizierten Hardwareencodern bestehen: Geringe Flexibilität bezüglich Parametern, und schlechtere Bildqualität im Vergleich zu Softwareencodern auf Protz Hardware. Für ambitionierte Leute, die die beste Bildqualität haben möchten wäre also ein Zweit-PC mit Threadripper o.Ä. die bessere Wahl. Ich sage wäre, weil es dafür natürlich eine entsprechende Capture Card mit DP 1.4 bräuchte. Im Moment dürfte die 3090 also wirklich die einzig gute Wahl sein.
Weil DLSS beschiss ist ganz einfach :schief:. Nichts geht über eine native Auflösung...NICHTS !!
Aber wenns doch vergleichbar aussieht...

Das ganze Thema erinnert mich ein wenig an die Grundsatzdiskussion von vor ein paar Jahren, als drüber diskutiert wurde, ob Shader-Replacement im Treiber Schummelei ist. Mittlerweile ist es Standard, einfach weil es mehr Performance ohne sichtbare Nachteile bringt.

Übrigens: Das "echte" 8K Bild bekommst du auf einer 30XX Karte eh nicht zu sehen, denn der olle DP 1.4 Anschluss muss dafür auf Display Stream Compression zurückgreifen.
 
Übrigens: Das "echte" 8K Bild bekommst du auf einer 30XX Karte eh nicht zu sehen, denn der olle DP 1.4 Anschluss muss dafür auf Display Stream Compression zurückgreifen.
Bei DP 1.4 kann man doch einfach zwei Kabel anschließen meine ich.
 
Weil DLSS beschiss ist ganz einfach :schief:. Nichts geht über eine native Auflösung...NICHTS !!

Und DLSS jetzt schon manches besser kann, als manch andere Kantenglättungsmodi. Deswegen ist es beschiss. AMD will doch auch einen ähnlichen Ansatz verfolgen. Ich war anfangs auch extrem misstrauisch, aber jetzt so langsam finde ich das, was ich gesehen habe schon sehr interessant.
 
DLSS ist kein Beschiss. Sondern ist dazu da, um die Performance aufrecht zu erhalten und gleichzeitig ein möglichst sauberes Bild zu gewährleisten.

DLSS, so wie es scheint, spart einfach Ressourcen, an entsprechenden Stellen, und macht so ein möglichst "sauberes" spielen möglich. Wir kennen das von Konsolen, schon seit längerem. Auch der PC Spieler hat ein Grafikoptionsmenü und kann dort Details an und abschalten, um so mehr FPS zu erzielen. Mit "KI" hat das anbei soviel zu tun, wie Wüste und Skifahren. Ich frage mich heute noch, was sich Nvidia dabei gedacht hat.

Wenn man davon ausgeht, daß man als PC Spieler einfach das volle Programm haben möchte ist dann ist DLSS nichts anderes als Verarsche, das stimmt. Ob das Ergebnis dann gut aussieht oder nicht, das ist wayne. DLSS ist einfach ein Werkzeug eine Zusatzoption und wenn es funktioniert, dann ist das doch auch oke. Ich spiele eh nicht mehr als WQHD und schalte auch mal einfach aus Prinzip immer ein paar Optionen ab, dann bleibt der Rechenknecht ruhiger. Ob man sich dann hier ein RT in 4k oder 8k zusammenbescheißt, ist mir egal. Aber kommunizieren muß man das halt auch genau so.

Hier spielen einfach mehrere Dinge eine Rolle. a) die Grafik verbessert sich nicht mehr so stark wie in den Jahren zuvor, somit fallen Einschnitte dann auch nicht mehr so auf. b) man kann Hinz und Kunz mittlerweile eh jeden Mist aufschwatzen und andrehen (siehe RT), das nennt sich Degeneration, aber das ist ja jedem denkenden Menschen mehr als bewußt, daß das hier im "Westen" mehr als Standardprogramm ist.
 
die meisten spieler kommen gedanklich auch nicht über 27" oder FHD oder 60Hz
und kompetitiv spielen können die sowieso nicht, esport andys streamen es dann auch noch vor einer cam
krasse zeiten
 
Es geht ihnen vor allem um eine höhere Auslastung der FP32 Arithmetik (FFMA/FADD/FMUL). Warum man statt 8K Performance, nicht auf 2K oder 4K Ultraquali geht, indem man die Leistung verwendet um höher als Native zu rechnen (DLSS+DLAA), bleibt ihr Geheimnis. Vermutlich geht ihnen dann bei einer 10GiB Karte der Speicher aus und bekommt man die SM Partitionen (FP32/Int16) schlechter ausgelastet.

8K ist bisher keine Größe für Spieler, und im Flat TV Bereich erst recht nicht. Die Inhalte werden alle samt hochscaliert. Es gibt allgemein kein Ein-/Ausgabeformat das unterstützt wird, z.Bsp. Funk und Fernsehen. Keine Ahnung was das soll.

8K ist Verschwendung, jedenfalls bisher, rechnet höher als Native, dass wäre mal was! Da käme jeder in den Genuß von 1080p an.
 
Zuletzt bearbeitet von einem Moderator:
Sehr witzig.

4k und RTX 2080 Ti hat ja auch so toll funktioniert. :schief:

Das sind so Sätze, die Konsolenspieler beeindrucken... mehr nicht.

Ich weiß nicht, was jetzt dein Problem ist, aber 2080Ti und 4k funktionieren in der Tat zufriedenstellend (wenn man mal vom Preis der Karte absieht). Gut, wenn man natürlich auf den PR-Train 144Hz aufwärts für Pixelshooter aufspringt nicht, aber für alles andere ist die 2080Ti mehr als ausreichend.
 
8K ist halt ein Marketing-Gag. Die Leute zocken in der Regel auf FullHD und sind froh, dass sie da gute Bildrate erreichen. Wenn sie testweise auf 4K aufdrehen, gehen die FPS flöten und es bewegt sich beispielsweise irgendwo bis max 30-50FPS. Wenn Nvidia jetzt damit wirbt, dass für die neue Karte 8K und 60Hz kein Problem sind, dann ist man natürlich beeindruckt, denn wenn man das zurückrechnet, dann wären das laut Milchmädchen-Rechnung 4K/240FPS oder FHD/960FPS, da sich die Anforderung etwa vervierfacht. :ugly: Natürlich ist das ein DLSS Trick. Wie dem auch sei, 4K sollte für die RTX3090 kein Problem darstellen. Das macht die mit links.
 
Zuletzt bearbeitet:
Die meisten Spieler können sich nicht mal n 4K Monitor leisten :D

Mein 40" 4K-Monitor Iiyama ProLite X4071UHSU mit MVA-Pannel hat neu um die 500,- Euro gekostet und ist mittlerweile schon gute 3-4 Jahre alt. Hat natürlich das ganze Gamer-BlingBling wie RGB, XYZ-Sync nicht und auch "nur" 60Hz. Aber er war bezahlbar.
 
Zurück