Nvidia RTX 4000 Ankündigung: RTX 4090 2-4- mal schneller als 3090 TI

Jetzt den einen Trick als besser zu bezeichnen als den anderen, nur weil einem der Hersteller nicht gefällt, halte ich für fragwürdig. Fakt ist: DLSS ist weiterhin der Platzhirsch was Upscaling angeht. DLSS 3.0 mit komplett eingefügten Frames ist auf jeden Fall ein dicker Brocken, da wird AMD ordentlich dran zu knabbern haben.
Es ist relevant, wenn der Trick nur funktioniert, wenn Spiele ihn aktiv Unterstützen.
 
Ja, ist mein Ernst. Nö, ist kein harter Tobak. Bei der Rasterization wird auch nur getrickst, jegliche Lichtdarstellung ist ein "Trick". Erst bei vollem Pathtracing könnte man sagen dass es keine Tricks sind.
Nichts für Ungut Jegliche Echtzeitberechnung von Licht und Schatten und deren Reflektionen Ist ein Algorithmus Berechnung sowas ist kein Trick, und nur was DLSS ,VRay, IRay oder jegliche andere Art derer Berechnung eine Simulation anhand von Algorithmen und Rasterbrechnung von Clustern und wenn es das nicht gebe würde jeder 3D Film oder PC Spiel oder Spiel auf dem Handy leblos und unwirklich erscheinen. ich mache privat 3D Bilder und PC Games Modi und ganz ehrlich wenn es Nvidia nicht gebe es kaum PC spiele oder 3D Filme mit guter Grafik und Bild weil die Software die da hinter steht zu 90 % von Nvidia stammen nicht von anderen Firmen wie AMD oder Intel oder sonst was
 
AMD und Intel lassen es wenigstens auf allen Karten (auch der Konkurrenz) laufen. Für DLSS 3.0 benötigt man zwingend RTX40XX.
Wenn man dafür die neuesten Tensorrecheneinheiten braucht, die es nur auf Ada / Lovelace gibt, dann kanns nicht auf Grakas vonAMD und Intel laufen gelassen werden. (Mit viel Lizenzgebühren würde es Nvidia vielleicht sogar zulassen, dass sich die anderen Mitbewerber in Tensortechnologie einkaufen könnten)

Wenns keine Abwärtskomptibilität hat, nennt sich das alte Zöpfe abschneiden... für den Fortschritt ist das meistens besser.
Nvidia macht also wie immer mit seinem proprietären Mist weiter und die verblendeten Fans feiern auch das wieder.
Erst wenn's 5 bis 10 Spiele gibt, die ich gern spiele und es mit der 3090 gar nicht mehr geht, dann würde ich mich gezwungen fühlen. Und wenn DLSS 3.0 doppelt so schnell und gar schöner als DLSS 2.0 ist. Dann könnte mir einfallen es nicht als Mist zusehen.
Aber ohne unabhängige Tests kann ich jedenfalls gar nicht darüber urteilen. Denn ob Jensen Lack mit dem Farbton Schönfärberei aufgetragen hat, muss ich auch noch zeigen...

Und dank DLSS 3.0 doppelte fps in Cyberpunk haben zu können, scheitert auch an meiner CPU.
Ich bin sicher das Lovelace keinen Erfolg auf dem Markt verzeichnen wird.
Es ist ganz gut oder wäre ganz gut, wenn nicht sämtliche Karten innerhalb von 5 Sekunden nach dem Start ausverkauft sind. Außerdem gibt es noch das Habenwollen-Moment das die hungrigen Enthusiasten nervöse Finger macht, immer wenn nach zwei Jahren endlich was Neues daherkommt und deren Leiden beenden könnte.

Wenn alle zögern und die Enthusiasten nicht, wird sich beim Startschuss die 4090 möglicherweise am besten verkaufen und aus deren Sicht ist es ganz gut, dass es diesmal zwischen 90er und 80er-Karte eine breitere Leistungslücke auftut.
 
Es ist relevant, wenn der Trick nur funktioniert, wenn Spiele ihn aktiv Unterstützen.
Die Verbreitung nimmt zu, das lässt sich ja nicht abstreiten. Ja, es ist ein proprietäres Feature welches aktiv vom Spiel unterstützt werden muss. Das gibt es jetzt nicht zum ersten Mal, irgendwann werden neue "Tricks" dann zum Standard. Die UE + Unity Engine haben native DLSS Unterstützung, zusammen bringen die beiden Engines es auf einen hohen prozentualen Anteil in neuen AAA Games. Ich finde es daher relevant mit einzubeziehen in eine Leistungsbewertung.

Wenn man sagt "nur Features die überall laufen sind erlaubt", dann hätte man RDNA2 auch ohne SAM testen müssen...

Mal gucken wie es mit der Latenz bei DLSS 3 aussieht. Deswegen ist es wohl mit Reflex gekoppelt.
Keine höhere Latenz da entkoppelt von der Game Engine, wurde in irgendeinem Twitter Post bereits erklärt. Es werden Zwischenframes hinzugefügt, in dieser Zeit wäre auch ohne diese Frames keine Eingabe vom User möglich da es das Frame ja gar nicht gegeben hätte.

Nichts für Ungut Jegliche Echtzeitberechnung von Licht und Schatten und deren Reflektionen Ist ein Algorithmus Berechnung sowas ist kein Trick, und nur was DLSS ,VRay, IRay oder jegliche andere Art derer Berechnung eine Simulation anhand von Algorithmen und Rasterbrechnung von Clustern und wenn es das nicht gebe würde jeder 3D Film oder PC Spiel oder Spiel auf dem Handy leblos und unwirklich erscheinen. ich mache privat 3D Bilder und PC Games Modi und ganz ehrlich wenn es Nvidia nicht gebe es kaum PC soviel oder 3d Filme mit Guter Grafik und Bild weil die Software die da hinter steht zu 90 % von Nvidia stammen nicht von anderen Firmen wie AMD oder Intel oder sonst was
Puh, ich verstehe nur grob was Du sagen willst. Satzbau und Zeichen sind für mich schwer zu verstehen.
3D Darstellung auf 2D Monitoren sind immer "Tricks" wenn man es so bezeichnen möchte. Oder es sind alles Algorithmen, je nach Sichtweise. Beim einen von "legitime Berechnung", und beim anderen von "Trick" zu sprechen, halte ich deswegen für Unsinn.
Und dank DLSS 3.0 doppelte fps in Cyberpunk haben zu können, scheitert auch an meiner CPU.
Die zusätzlichen Frames werden komplett auf den Tensor Cores berechnet, da ist die CPU egal. ;)
 
Die Rasterberechnung als Trick zu bezeichnen und gegen Sachen wie DLSS zu stellen ist schon harter Tobak.
Raster besteht nur aus Tricks. Beispielsweise Shader, die optisch Details und Struktur hinzufügen, welche das Modell gar nicht besitzt.
Hier mal displacement bzw. bump map mal als Beispiel: https://www.creativebloq.com/features/a-beginners-guide-to-displacement-and-bump-maps
Die komplette Beleuchtung ist gefaket und von Hand gesetzt.

In der Spieleprogrammierung wird fast nur getrickst, damit alles so schnell/effizient wie möglich und dabei noch physikalisch richtig aussieht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Diesmal ist Nvidia wohl zu weit gegangen und selbst die Lemminge geraten ins stocken.
Ich bin sicher das Lovelace keinen Erfolg auf dem Markt verzeichnen wird.
Aber es war klar Nvidia muss halt fühlen, sonst ändert sich an den Missständen doch nie etwas ...
Hatte Alki dich nicht schon verwarnt? Du begehrst den Permaban wohl echt.
 
Ja, das mag sein. Aber dennoch bleibt die Latenz dann gleich auf dem Niveau ohne DLSS 3, also bei der geringen Framerate.

Normalerweise ist der große Vorteil einer höheren Framerate ja die damit verbundene geringere Eingabelatenz. Ergo schnellere Reaktion auf die Maus.

Genau das unterbleibt durch DLSS 3 aber. Dafür wird man sich vermutlich doch den einen oder anderen Artefakt einhandeln.

Ich lass mich überraschen, Wunder erwarte ich mir nicht. Ich erwarte z.B. bei 40 fps mit DLSS auf 80 hochgerechnet immer doch das Spielgefühl wie bei 40fps mit vielleicht etwas weniger sichtbarem Ruckeln.
Ja absolut, die Latenz wird durch die zusätzlichen Frames nicht besser. Aber eben auch nicht schlechter, und man hat ein "smootheres" Spielgefühl.
Im Gegensatz zu DLSS verändert SAM die Bildqualität nicht.
Stimmt, DLSS liefert allerdings auch das beste Anti-Aliasing ab was man aktuell bekommen kann, zusätzlich zu dem massiven FPS Gain.

Ich verstehe Deine Argumentation, aber finde ein Ausklammern von Features trotzdem Unsinn. Wenn es das Feature gibt, und es in ausreichend vielen Titeln genutzt werden kann, dann gehört es auch getestet.

Nvidia ist sich offensichtlich sicher dass DLSS weiter Verbreitung erfährt. Warum auch nicht, alle großen Engines haben es nativ integriert...
 
Zuletzt bearbeitet von einem Moderator:
Wenn man dafür die neuesten Tensorrecheneinheiten braucht,
Intel schafft es einen offenen Standard zu bauen und diesen halt so anzupassen, dass er auf den eigenen Karten am besten läuft!
AMD schafft es einen Standard zu bauen, der auf allen Karten gut läuft.
Nvidia schafft es einen Standard zu bauen, der bereits von einem Jahr alten eigenen Karten nicht mehr unterstützt wird und aktuell zwingend eine mind. 1.099 EUR teure Karte voraussetzt!

Sorry, aber das ist beileibe kein von mir gewünschter Fortschritt. Wenn man es wie Intel geschafft hätte, dass man eben mit den 4xxxern gleich x% schneller ist! Perfekt! Aber so? Die meisten User hier haben nichtmal einen PC der soviel gekostet hat, wie die aktuelle Mindestvoraussetzung für DLSS 3.0!

Wenns keine Abwärtskomptibilität
Aber nicht nach einer Generation, da nennt man das "bewusste Abzocke"

Insgesamt empfinde ich die Leistungsangaben natürlich vielverpsrechend, bei näherer Betrachtung allerdings erscheint es mir doch eher so, dass hier viel viel Makeup zum Einsatz kam. Da steht dann 2 - 4 fache Leistung! Soweit klingt das gut, 2 fache Leistung wird es aber nur unter Einsatz von DLSS 3 geben, 4 fache Leistung nur mit RT! Grds. nicht verkehrt und ich halte DLSS für sehr wichtig, auch kommen wir bei RT dann jetzt langsam mal in Gefilde wo es was zu gewinnen gibt.

Dennoch ist die Wahrheit ja sehr geschönt worden.

Die Wahrheit ist wohl, dass man weniger als 50% an Leistung gewinnt! (ACV bspw. unter 50% trotz DLSS Einsatzes)
Die Wahrheit ist aber auch, dass man eine 4070 (oder besser 4080 12GB) für rund 1.100 EUR beziehen können wird, eine 3070 (das ehrliche Gegenstück der Vorgeneration) gab es für 499 EUR (UVP), das bedeutet also nichts anderes, dass man die obere Mittelklasse mal eben verdoppelt hat (klar, man nutzt gleich ein Rebranding um das zu rechtfertigen). Auch die 4090 packt einfach mal eben 25% Verteuerung oben drauf, unabhängig davon, dass die 3090 schon niemals sinnvoll war!
Die Wahrheit ist auch, dass diese 50% der Leistungssteigerung hier sehr teuer erkauft werden müssen und wir uns hier noch nicht einmal sicher sein dürfen, dass es sich um Benches mit 450W TBP handelt! Wenn, zuzutrauen ist es ihnen, 660W angelegen haben! Na dann gute Nacht, dann war es hardwaretechnisch die schlechteste NV (und ja, ich kenne noch Thermi) die ich je gesehen habe!

Nvidias Vorteil derzeit ist die Software, gerade DLSS! Aber bei den Preisen werden sehr schnell neue und billigere Karten kommen müssen, ich persönlich kenne niemanden in meinem Umfeld, der jemals im Ansatz 1.000 EUR für eine Grafikkarte ausgegeben hat! Ich selber habe dies ein einziges Mal getan und werde es mit ziemlicher Sicherheit nicht noch einmal tun. Das was präsentiert wurde, gefällt mir nicht, hardwaretechnisch bin ich mal vorsichtig optimistisch, dass man knappe 50% Leistung bei gleicher Leistungsaufnahme gewonnen hat, was zweifelsohne gut ist (sehr gut nicht wirklich, immerhin hat man von 8nm Samsung auf 5nm TSMC Gewechselt, was alleine schon mehr als 30% bringen sollte), die Software mit DLSS 3 klingt wahnsinnig interessant, die Preise sind zum "kotzen"
 
Stimmt, DLSS liefert allerdings auch das beste Anti-Aliasing ab was man aktuell bekommen kann, zusätzlich zu dem massiven FPS Gain.
Solange DLSS nicht ohne Artefakte funktioniert, ist diese Aussage unhaltbar.

Ich verstehe Deine Argumentation, aber finde ein Ausklammern von Features trotzdem Unsinn. Wenn es das Feature gibt, und es in ausreichend vielen Titeln genutzt werden kann, dann gehört es auch getestet.
Ja, schon, nur ist ein Vergleichstest schwierig, wenn jede Karte eine sichtbar unterschiedliche Bildqualität ausgibt. Als Zusatztest ist das natürlich Ok.
 
Solange DLSS nicht ohne Artefakte funktioniert, ist diese Aussage unhaltbar.
Die Artefakte (ghosting, schlieren) sind seit DLSS 2.3 doch mit dem bloßen Auge in Bewegung kaum mehr zu erkennen, oder irre ich mich da?

Ja, schon, nur ist ein Vergleichstest schwierig, wenn jede Karte eine sichtbar unterschiedliche Bildqualität ausgibt. Als Zusatztest ist das natürlich Ok.
Ich wette ein Blindtest "4K nativ vs 4K DLSS Q" würde keine merkbaren Unterschiede in der Bildqualität aufzeigen.
 
Solange DLSS nicht ohne Artefakte funktioniert, ist diese Aussage unhaltbar.
Nenne mir doch bitte eine AA Technologie, welche besser ist.

Ja, schon, nur ist ein Vergleichstest schwierig, wenn jede Karte eine sichtbar unterschiedliche Bildqualität ausgibt. Als Zusatztest ist das natürlich Ok.
So ein Quatsch. Nvidia tauscht seit Ewigkeiten die Shader gegen eigene optimierte Varianten via Treiber aus. Alleine das sorgt schon für eine andere Bildquali.
Variable Rate Shading sorgt ebenfalls für eine unterschiedliche Bildquali, wenn die Kameraposition nicht exakt gleich ist.
 
Zuletzt bearbeitet:
Ohne DLSS hätte es die ganze moderne Upscaling Technologie nie gegeben.
???
Muss oder muss nicht! Wir werden es nicht erfahren. Ich hab auch grds. kein Problem damit und empfinde DLSS (in seiner zweiten Inkarnation) als Segen für viele.

Nvidia investiert viel Geld in eine neue Technologie
Das ist in der Konsequenz nicht richtig und entspricht nunmal so gar nicht den Tatsachen. Was hat Nvidia denn bisher so entwickelt, was es ohne sie nicht gegeben hätte? Viel war es nicht und die allermeisten Sachen waren zugekauft! Oftmals war es gar so, dass Nvidia die Erfindungen anderer ausgeschlachtet hat, PhysX würde mir hier einfallen. Gekauft und exklusiv implementiert um die Konkurenz zu schädigen.

Da es ja nur noch eine Aufholjagd ist, kann man das großzügig ohne HW-Bindung machen, um als der Samariter dazustehen.
Auch das ist Quatsch, AMD macht das zwar sicherlich nicht, weil sie Samariter sind, aber selbst Ansätze die vor Nvidia getroffen wurden, werden oftmals frei zugänglich gemacht. Wie gesagt, nicht weil sie Samariter sind, sondern weil sie es müssen!
 
NVidia:
Pixel & Geometrie-Shader (-> D3D 7), 3DVision, PhysX, GSync (ja, wirklich), RayTracing in Echtzeit, DLSS.
Pixel & Geometrie Shader; meinst du T&L Einheiten? War keine NV exklusive Entwicklung, S3 hatte die zeitgleich auch! Lediglich 3dfx und AMD kamen zu spät.

3D Vision ist auch keine NV Erfindung, sondern nur eine Umsetzung bekannter Technik für den PC. Aber auch hier war ELSA meines Wissens nach vorne in der Entwicklung.

PhysX war nur ein Zukauf von NV; die Technik und spezielle Beschleunigerkarten gab: PhysX ist auf eine Entwicklung der ETH Zürich zurück zu gehen, NovodeX war damals ein abgespaltener Bereich der ETH und wurde dann von Ageis gekauft um Jahre später an NV verkauft zu werden.

RayTracing

Ganz sicher keine Erfindung von Nvidia, die sehr alte Befehlssatzerweiterung SSE konnte dies schon.
 
Zurück