Nvidia RTX 4000 Ankündigung: RTX 4090 2-4- mal schneller als 3090 TI

PCGH-Redaktion

Kommentar-System
Teammitglied
"2-4- mal schneller" und ohne DLSS, wie viel bleibt da noch wirklich übrig?
Mag sein das DLSS ein recht gutes bild durch tricks erzeugt, aber dennoch bleibt es ein Trick der durch einen ausgefuchsten Algorithmus funktioniert.
 
Ja, 2-4 Mal schneller in Nvidia-Tests. PCGH wird rausfinden ob es so ist ;););). Es ist klar, dass das Marketing ist daher wären für mich schon die 2 in Ordnung.

Zur 4080...wieder ein Assimove iwie die 12er und die 16er auf 80 enden zu lassen, obwohl es ja sehr unterschiedliche Karten sein werden.

ALso entweder 16er oder auf die kleinen warten wer es denn möchte, aber die vollwertige ist ja wohl nur die 16er.
 
1199$ ohne Steuern für ne 4080....
beyond.png
 
Meine Fragen an die Redaktion wären, wurde die 4080/12 GB nur umgelabelt und entspricht einer hypothetischen 4070(ti)?

Wie sieht der relative Leistungsunterschied 4070 zu 4080/12 GB und 4080/12 GB zu 4080/16 GB aus?

Wie war der Unterschied von 3070 zu 3080/10 GB bei Veröffentlichung? (evtl, müssten auch die Verhältnisse 3070(ti) zu 3080/10 GB oder 3080/12 GB betrachtet werden.)
Kann man aus den relativen Unterschieden innerhalb der Generationen einen Rückschluss auf ein evtl. Rebranding der 4070 zur 4080/12 GB schließen?

Ich vermute Mal, die Fragen würden eh beantwortet, ich wollte Sie dennoch einmal in den Hut werfen.
 
Meine Fragen an die Redaktion wären, wurde die 4080/12 GB nur umgelabelt und entspricht einer hypothetischen 4070(ti)?

Wie sieht der relative Leistungsunterschied 4070 zu 4080/12 GB und 4080/12 GB zu 4080/16 GB aus?

Wie war der Unterschied von 3070 zu 3080/10 GB bei Veröffentlichung? (evtl, müssten auch die Verhältnisse 3070(ti) zu 3080/10 GB oder 3080/12 GB betrachtet werden.)
Kann man aus den relativen Unterschieden innerhalb der Generationen einen Rückschluss auf ein evtl. Rebranding der 4070 zur 4080/12 GB schließen?

Ich vermute Mal, die Fragen würden eh beantwortet, ich wollte Sie dennoch einmal in den Hut werfen.

Kurzum die RTX4080 12Gb weißt die gleichen Gemeinsamkeiten auf wie einst die RTX3070, RTX2070 oder co.
Man spielt ca. auf dem Niveau wo die letzte High End Generation war bei weniger Ram und besserer Effizienz.
Meist wie bei der RTX Serie bisher, wird zudem der kleinere Chip verbaut ("Mittelklasse Chip").

Daher bin ich der Meinung Nvidia hat die Karte zur 80er umbenannt um sie preislich über der RTX3080 zu positionieren, da Ada und Ampere noch eine zeitlich gemeinsam nebenher laufen.

Ich denke die Leaks zur RTX4070 10GB wird daher auch stimmen und bei 699 Doller landen und dort wildern wo die RTX3080 10GB es tut. Bis auf die bessere Effizienz und DLSS 3.0 wäre da keine große Verbesserung zu sehen, leider.

Mal sehen wie es kommt, Hauptsache die Karten kommen ^^
 
"2-4- mal schneller" und ohne DLSS, wie viel bleibt da noch wirklich übrig?
Mag sein das DLSS ein recht gutes bild durch tricks erzeugt, aber dennoch bleibt es ein Trick der durch einen ausgefuchsten Algorithmus funktioniert.
Reine Raster-Rohleistung wird wohl zwischen 50-100% steigen.

Dir ist schon bewusst dass auch Rasterization nur "Tricks" sind, ja?

Da wird auch nur "grob" berechnet wie es in Wirklichkeit aussehen würde. Fotorealistische Grafik wird es erst bei vollem Pathtracing geben, bis dahin sind das alles Tricks.

Jetzt den einen Trick als besser zu bezeichnen als den anderen, nur weil einem der Hersteller nicht gefällt, halte ich für fragwürdig. Fakt ist: DLSS ist weiterhin der Platzhirsch was Upscaling angeht. DLSS 3.0 mit komplett eingefügten Frames ist auf jeden Fall ein dicker Brocken, da wird AMD ordentlich dran zu knabbern haben.

Durch die Unreal + Unity Engine Integration werden wir (und haben auch jetzt schon) immer mehr AAA-Spiele mit DLSS + FSR 2.0 sehen. Dann muss sich ein FSR 2.0 aktuell den Vergleich mit DLSS 3.0 gefallen lassen, und da sieht es nach einem krassen Leistungsunterschied aus. AMD braucht min. 1-2 Jahre um nachzuziehen, Intel wohl mit seinem XeSS auch.
 
Durch die Unreal + Unity Engine Integration werden wir (und haben auch jetzt schon) immer mehr AAA-Spiele mit DLSS + FSR 2.0 sehen. Dann muss sich ein FSR 2.0 aktuell den Vergleich mit DLSS 3.0 gefallen lassen, und da sieht es nach einem krassen Leistungsunterschied aus. AMD braucht min. 1-2 Jahre um nachzuziehen, Intel wohl mit seinem XeSS auch.
Aktuell ist DLSS 3.0 nicht auf dem Markt. UND FSR 2.0 ist praktisch genau wie DSSL 2
 
Fakt ist für mich: DlSS immer noch nur mit Nvidia, kein AMD/(Intel) Support, daher uninteressant, mir egal ob es die beste Upscaling Technik ist.

wenn ich die 4070 12GB sehe muss ich immer lachen:lol:
 
Aktuell ist DLSS 3.0 nicht auf dem Markt. UND FSR 2.0 ist praktisch genau wie DSSL 2
Ab nächsten Monat ist es auf dem Markt, zum Start wohl in 35 Spielen und eben den genannten Engines. Und nein, FSR 2.0 ist nicht "praktisch genau wie" DLSS 2.0. Es ist schlechter. Auch wenn FSR 2.1 beim Thema Ghosting nachgebessert hat, wie hoch ist denn die Verbreitung aktuell?
 
Ist das dein Ernst?
Die Rasterberechnung als Trick zu bezeichnen und gegen Sachen wie DLSS zu stellen ist schon harter Tobak.
Ja, ist mein Ernst. Nö, ist kein harter Tobak. Bei der Rasterization wird auch nur getrickst, jegliche Lichtdarstellung ist ein "Trick". Erst bei vollem Pathtracing könnte man sagen dass es keine Tricks sind.
 
Zuletzt bearbeitet von einem Moderator:
Durch die Unreal + Unity Engine Integration werden wir (und haben auch jetzt schon) immer mehr AAA-Spiele mit DLSS + FSR 2.0 sehen. Dann muss sich ein FSR 2.0 aktuell den Vergleich mit DLSS 3.0 gefallen lassen, und da sieht es nach einem krassen Leistungsunterschied aus. AMD braucht min. 1-2 Jahre um nachzuziehen, Intel wohl mit seinem XeSS auch.
Und?

AMD und Intel lassen es wenigstens auf allen Karten (auch der Konkurrenz) laufen. Für DLSS 3.0 benötigt man zwingend RTX40XX. Nvidia macht also wie immer mit seinem proprietären Mist weiter und die verblendeten Fans feiern auch das wieder. Muss man irgendwann nicht mehr verstehen. Nach meiner RTX3060 wird es definitiv keine Nvidia-Karte mehr für mich, wenn Nvidia meint mich nun bei DLSS 3.0 auszusperren.
Zudem werden wir doch wohl unabhängige Tests abwarten wollen, bevor Loblieder darauf gesungen werden? ;)
 
Diesmal ist Nvidia wohl zu weit gegangen und selbst die Lemminge geraten ins stocken.
Ich bin sicher das Lovelace keinen Erfolg auf dem Markt verzeichnen wird.
Aber es war klar Nvidia muss halt fühlen, sonst ändert sich an den Missständen doch nie etwas ...
 
Ja, ist mein Ernst. Nö, ist kein harter Tobak. Bei der Rasterization wird auch nur getrickst, jegliche Lichtdarstellung ist ein "Trick". Erst bei vollem Pathtracing könnte man sagen dass es keine Tricks sind.
Jetzt versucht du mit Details zu argumentieren, die nicht zur ursprünglichen Aussage passen. DLSS weist nun mal eine unterschiedliche Bildqualität im Vergleich zu einem nativ gerenderten Bild auf. Daher ist ein 1:1 Vergleich nur eingeschränkt möglich und auch überhaupt nur dann, wenn DLSS implementiert ist. Von daher sind die Testbedingungen von Nvidia schon ein gutes Stück zu gunsten Ada (und gleichzeitig zum Nachteil von Ampere, wegen der niedrigen Auflösung,) ausgelegt.
 
Zurück