News Geforce RTX 4060 in Cyberpunk 2077: Spielbar oder nicht?

Ich bevorzuge glatte 80 Fps (die sehen für mich einfach flüssig aus) und das hat meine 3090 halt in Plague Tale nicht mehr geschafft.
Das wird die Meinige in dem Game auch nicht, aber in SotTR packt sie die 80 FPS in 1440p mit Ultra am Gaming Laptop.
Mir reicht das (noch).
 

Anhänge

  • SotTR.jpg
    SotTR.jpg
    503,8 KB · Aufrufe: 18
  • Bench TR Ultra.jpg
    Bench TR Ultra.jpg
    832,6 KB · Aufrufe: 18
Effektiv stehen in 1080p mit Ultra-Preset, aber ohne Raytracing und Frame Generation, 92 Fps bei der RTX 3060 im Ergebnis und 101 Fps bei der RTX 4060.

Wenn Nvidia mit RTX Off testen lässt, dann sollten bei uns alle Alarmglocken angehen, egal wie gut das Ergebnis auf den ersten Blick erscheint.

Zudem darf man die Frage stellen, ob zwischen 92 und 101 ein Unterschied besteht auf den es wirklich ankommt.
 
reden wir jetzt eigentlich von den zusätzlichen FPS durch DLSS 2.x oder von FG?
Ich hoffe mal von FG, denn sonst ergibt es keinen Sinn.
Doch, die reagieren auf den Input, da sie zwischen zwei echten Frames liegen.
Deine Mausbewegung wird somit detaillierter dargestellt.
So gesehen schon, aber das passiert erst, wenn der Frame nach dem generierten Frame berechnet wurde. Wenn es um schnellere Reaktionszeit geht, ist FG in der Form also eine eher schädliche Technik.
 
Auch wenn "Overdrive" nur so eine Art Techdemo sein will (ist es nicht, es ist ein voll spielbarer Grafikmodus), es zeigt die Zukunft an. Und um 300 Euro darf man erwarten diese Technologie wenigstens in FHD gebießen zu können, wer 4K will zahlt dann eh gerne mehr.

Vor nicht einmal 10 Jahren hat ein Netzwerk aus diversen 10 000€-Rechnern das nicht in Echtzeit berechnen können und jetzt soll es plötzlich eine 300€-Karte können? :huh: Ist das nicht wein wenig zu viel verlangt? Das ist so, als würdest Du verlangen, dass ein 5000 €-E-Auto (gibts da einen aus China?) nach 10 Jahren bitte die gleiche Leistung wie ein 100 000€-Tesla von damals bringen soll.:ugly:
Sogar mit einer 200 Euro gebraucht gekauften 1080 Ti gehen 60FPS in dem Spiel. Getestet von PCWelt. Wer also nicht viel Geld hat, kann da noch ein gutes Schnäppchen schlagen.

Da die 1080Ti langsamer als eine 4060Ti und maybe RTX 4060 nonTi ist und ohne Feature-Set kommt würde ich diese nicht mehr mit der Kneifzange anfassen, zumindest nicht für 200€.
 
Ich bin sicher kein NV Fan, aber 90 FPS, auf Ultra, ist für mich nicht unspielbar.

Zu verlangen man MUSS mit RT testen ist nur dummes NV gebashe. Für mich und viele andere ist RT noch komplett uninteressant, jetzt zu VERLANGEN, dass die 4060 Cyberpunk mit RT und ohne Hilfe flüssig darstellen soll, ist einfach lächerlich. Selbst meine 6800xt schafft, laut Youtubevideo, keine 60 FPS, wenn RT+FSR an sind, in 1080. Und die Karte kostet deutlich mehr.

Läuft doch auch mit RT flüssig, man muss halt DLSS3 nutzen.
Versteht mich nicht falsch, ich bin kein Freund von "FakeFPS", aber von einer 400 € Karte Dinge zu verlangen, die die Konkurrenz nicht mit ihren 600 € Karten schafft, ist schon etwas peinlich.

Ich bin ganz klar im Team AMD, weil sie aktuell, für mich, das bessere Preisleistungsverhältnis haben. Aber dumm auf NV draufhauen bringt halt überhaupt nichts.

Etwas kurzsichtig, denn zum einen haben wir dieses mal nur 128 bit an 8 PCI-Express lanes, zum anderen wird ein Chip verbaut, der eher auf eine 4050 gehört. Das ist also schon einmal für das gebotene Stück Hardware viel zu teuer - auch inflationsbereinigt.

Zum anderen ist RT nun mal der nächste Schritt der Grafikevolution. Da das jetzt die dritte RT-Generation ist, erwarte ich für das verlangte Geld in der Klasse dann auch genug RT-Leistung bis 1440p. Ohne DLSS 3, sondern nativ, wohlgemerkt.

Der Vergleich mit AMD hinkt hier ebenfalls gewaltig, wenn die 4060 mit RT+DLSS 3 beworben wird. AMD ist mit RT nicht auf dem Stand von Nvidia und bietet auch noch keine vergleichbare Technik wie DLSS 3. Guck doch mal, wo die RX 6800 XT jetzt beim RT steht (die ja schon von Anfang an nicht mit guter RT-Leistung glänzte).

Die ersten Benchmarks sprechen Bände und bestätigen leider auch meine Meinung, dass die Karte nativ zu wenig Leistung mitbringt bzw. für das aufgerufene Geld zu teuer ist. Gleiches sehe ich auch mit der 4060 16 GB, da sie ja auch nur mit 128 bit und 8 Lanes angebunden sein wird. Man darf hierbei nicht vergessen, dass ein nicht unerheblicher Teil noch mit PCI-Express 3.0 unterwegs ist.

Normalerweise ist diese Leistungsklasse für die meisten Gamer das Mittel der Wahl, also für die Hersteller die wichtigste Klasse. Doch leider werden der 4060 Ti mit 8 GB und auch der 16 GB-Variante nativ schnell die Puste ausgehen. Dass 8 GB VRAM mittlerweile zu wenig sind, wurde ja schon hinlänglich diskutiert. Zudem wird man von Nvidia schon gewzungen, DLSS 3 zu nutzen, da ohne diese Features in der Klasse zu wenig Leistung bereit steht. Die RX 6800 ist rasterized nach wie vor flotter unterwegs.

Das hat nichts mit "dumm auf NV draufhauen" zu tun, sondern ist Fakt. Wie schon an anderer Stelle erwähnt, liefern weder AMD, noch Nvidia im Moment Karten zu einem vernünftigen P/L-Verhältnis. Die nächste interessante Karte könnte dann meiner Ansicht nach erst wieder die RX 7800 XT sein. RTX 4060 (in welcher Form auch immer) und RX 7600 lassen wir lieber mal links liegen...
 
Vor nicht einmal 10 Jahren hat ein Netzwerk aus diversen 10 000€-Rechnern das nicht in Echtzeit berechnen können und jetzt soll es plötzlich eine 300€-Karte können? :huh:
du Vergleichst hier jetzt unterschiedliche Dinge.
Du redest von reinem Raytracing, umgesetzt rein über CPU Cores, ich rede vom aktuellen Ansatz des hybriden Renderings mit hochspezialisierten Rechenkernen, einer 5 Jahre alten RT Showcase die damals auf 500€ Karten funktioniert hat und es jetzt plötzlich also nicht mehr tun soll?
Nochmal: es handelt sich um das VORZEIGESPIEL von Nvidia, da sollte es bei einer 300€ Karte auch funktionieren.
Du ignorierst außerdem den nun schon mehrfach erklärten Etikettenschwindel (es handelt sich um eine Grafikkarte mit 107er Chip der etwas über 100mm2 groß ist. Dieser Chip ist sonst in den 120-170€ xx50 Karten zu finden gewesen, der Chip für die xx60 Gen ist normalerweise der 106er, ist (mit Ausnahme von Turing etwa) meist ca 200mm2 groß, hat also deutlich mehr Einheiten und Power), und, dass man bei NV ehrlich zugibt aktuell zu viel zu verlangen
Ist das nicht wein wenig zu viel verlangt? Das ist so, als würdest Du verlangen, dass ein 5000 €-E-Auto (gibts da einen aus China?) nach 10 Jahren bitte die gleiche Leistung wie ein 100 000€-Tesla von damals bringen soll.
Der Vergleich ist selten daneben: hat sich die Autoindustrie genauso vorwärts bewegt wie die Fertigungstechnologie von Chips. Sprichwort Moores Law.
Wenn ja, dann natürlich wäre dies zu erwarten.
Da die 1080Ti langsamer als eine 4060Ti und maybe RTX 4060 nonTi ist und ohne Feature-Set kommt würde ich diese nicht mehr mit der Kneifzange anfassen, zumindest nicht für 200€.
Aber für 300€ verteidigst du eine Karte die zwar das Featureset hat, aber weniger Speicher und auch kein brauchbares Pathtracing zustandekriegt...
 
Zuletzt bearbeitet:
reden wir jetzt eigentlich von den zusätzlichen FPS durch DLSS 2.x oder von FG?
Ich red von FG.
DLSS 2.x reagiert ja auf Input. Die sind ja nur insofern "Fake" dass das Bild hochskaliert wird. Also DLSS 2.x hat eine bessere Reaktionszeit als kein DLSS.
Doch, die reagieren auf den Input, da sie zwischen zwei echten Frames liegen.
Deine Mausbewegung wird somit detaillierter dargestellt.
Nein das stimmt nicht. Die generierten Frames sind Inputunabhängig. Die berechnen basierend auf vergangenen Bildern.
FG hat den gleichen Inputlag wie kein FG. Es sieht vielleicht flüssiger aus aber anfühlen tut es sich nicht flüssiger.
 
Hat es nicht, weil erst der nächste Frame berechnet wird, dann erst der künstliche Zwischenframe und dann erst der nächste Frame angezeigt wird. FG hat einen höheren Inputlag.
Ich müsste nochmals nachlesen. Ich dachte FG hat einfach nen AI Frame zwischen zwei normalen Frames welcher die "Smoothness" vom Bild erhöht aber die zwei normalen Frames werden zu "normaler" zeit berechnet.

Wenn das den Input Lag noch erhöht dann ist es ja dreifach Kacke...
 
Nein das stimmt nicht. Die generierten Frames sind Inputunabhängig. Die berechnen basierend auf vergangenen Bildern.
Die sind nicht Inputunabhängig. Wenn sie das wären, dann würden sie ein falsches Bild anzeigen.
FG hat den gleichen Inputlag wie kein FG.
Durch Hinzunahme von Reflex kann DLSS+FG sogar einen besseren Inputlag haben als die AMD Konkurrenz, aber nicht als Reflex ohne FG.
Ich würde es zwar nie benutzen weil der Inputlag gegenüber der viel flüssigeren Darstellung vernachlässigbar ist, aber er ist da.
 
Die sind nicht Inputunabhängig. Wenn sie das wären, dann würden sie ein falsches Bild anzeigen.

Durch Hinzunahme von Reflex kann DLSS+FG sogar einen besseren Inputlag haben als die AMD Konkurrenz, aber nicht als Reflex ohne FG.
Ich würde es zwar nie benutzen weil der Inputlag gegenüber der viel flüssigeren Darstellung vernachlässigbar ist, aber er ist da.
Es ist Inputunabhängig. Es benutzt seine "Motionvectors" oder wie Nvidia das nennt. Wenn du also jetzt 10 Sekunden lang dich nach Links drehst und dann volle kanne die Maus nach rechts reisst wirst du ein falsch generiertes Bild erhalten von der Frame Generation. Weil basierend auf den Motionvectoren der letzten paar Bilder "müsste" das nächste Bild etwas nach Links verschoben sein.

DLSS 2.x finde ich Geil und freue mich, wenn ich eine Karte habe welche das Unterstützt.
Und Reflex hat ja auch quasi nur Vorteile.
 
Ich müsste nochmals nachlesen. Ich dachte FG hat einfach nen AI Frame zwischen zwei normalen Frames welcher die "Smoothness" vom Bild erhöht aber die zwei normalen Frames werden zu "normaler" zeit berechnet.
Das stimmt prinzipiell auch, aber ich habe gerade noch mal kurz nachgeschaut und der AI-Frame wird nicht extrapoliert, sondern interpoliert, liegt also zwischen zwei bereits berechneten echten Frames und wird nicht aus den zwei vorhergehenden echten Frames "vorausgesagt" und dann vor dem nächsten echten Frame eingefügt.

Die Ausgabereihenfolge ist also: E1 A12 E2 A23 E3...
Die Berechnungsreihenfolge ist aber: E1 E2 A12 E3 A23...
Und nicht: E1 A01 E2 A12 E3 A23...

Wobei Ex immer ein echter Frame ist und Ayz ein AI-Frame der aus Ey und Ez berechnet wurde.
 
Das stimmt prinzipiell auch, aber ich habe gerade noch mal kurz nachgeschaut und der AI-Frame wird nicht extrapoliert, sondern interpoliert, liegt also zwischen zwei bereits berechneten echten Frames und wird nicht aus den zwei vorhergehenden echten Frames "vorausgesagt" und dann vor dem nächsten echten Frame eingefügt.

Die Ausgabereihenfolge ist also: E1 A12 E2 A23 E3...
Die Berechnungsreihenfolge ist aber: E1 E2 A12 E3 A23...
Und nicht: E1 A01 E2 A12 E3 A23...

Wobei Ex immer ein echter Frame ist und Ayz ein AI-Frame der aus Ey und Ez berechnet wurde.

Also wird die Latenz um ca. 50% erhöht wenn Framegeneration eingeschaltet ist?
 
Zurück