News Geforce RTX 4060 in Cyberpunk 2077: Spielbar oder nicht?

und das Game hat die User einer RTX 3090 dann gezwungen auf die neue Gen zu wechseln? Oder waren sie nur zu doof die Einstellungen zu ändern... man weiß es nicht... aber danke für diesen Kommentar... :D
Hey, ich bin der Erfinder von "Warum immer Ultra", also mir brauchst du das sicher nicht zu erzählen. Ich wollte nur ein Beispiel nennen, bei dem 3090-Nutzer das erste mal dachten "***, jetzt wäre die 4090 tatsächlich geil", einfach, weil das Spiel so verdammt gute Grafik hat, die man nicht verpassen möchte. Ich habs dann einfach mit DLSS-Q durchgezockt, sah ja trotzdem klasse aus. ;)
 
CP2077 ohne RT zu Testen zeigt doch schon die Niederlage.
Seit 2018 eine Raytracingwerbung und dann schafft die neue 300 Euro Karte nicht, dass das Spiel läuft.

Das ist Alles Auslegungssache. Ich habe Cyberpunk damals auf Raytracing Ultra in 1440p durchgespielt und das mit einer 2060S. Der dazu nötige Trade-Off war es DLSS auf Performance zu stellen und mit einer Framerate auf CurrentGen Konsolen Niveau zu leben.

Natürlich kann die 4060 das Spiel mit Raytracing spielbar zum Laufen bekommen, in 1080p sowieso. Die Frage ist eben welche Framerate man erwartet und welche Regler man bereit ist weiter nach Links zu stellen. Für meine Begriffe braucht man in so einem Spiel keine 100 FPS, da reichen zur Not auch 60 mit evtl. leichten Drops nach unten in den Kämpfen. Wer mehr will, muss eben eine dickere GPU kaufen.

De Karte ist natürlich trotzdem Kot mit Sahne aufgrund der 8GB VRam, nicht das hier Jemand denkt ich will das verteidigen ^^
 
Klar, es wird IMMER irgendein Game geben, das selbst die dickste Karte in die Knie zwingt. Software verkauft Hardware, so war es zumindest immer;-)

Davon ab, ich hab es ziemlich lange mit meiner damaligen Pascal ausgehalten (5 Jahre). Ich kann also auch mal ne längere Zeit nix kaufen und trotzdem VIEL Spaß haben.

Zudem, wo bleiben denn "die" Grafikkracher??? Kann mMn noch etwas länger dauern und die UE5-Titel müssen sich erst noch zeigen...

Achja, noch so ein "Geheimtipp" unter uns Nerds: hoch statt ultra soll kaum schlechter aussehen, aber gut Performance bringen.

Hab ich gehört. Von nem Kumpel, dessen Bruder bei einem Kollegen seines Vaters dieses unschöne Szenario wirklich mal ausprobiert hat.

Trotz drohendem Augenkrebs:P:D

Gruß
Also mein lieber Facehugger, das könnte man aber auch ein wenig (charakter)schwach auslegen.

Deine letzte Grafikkarte war doch keine Pascal, wie Du hier suggerierst, sondern eine 3080 - also eher ein Luxus-Upgrade - Soooo lange musstet Du also nicht darben wie dein Post den Anschein erweckt.

Nachdem Du in zahllosen Posts die Nvidia Preise -teils stark- kritisiert hast und nun aber selber "eingeknickt" bist, kommt das natürlich nicht so konsistent rüber.

Ich verstehe, dass Dir das wohl bewusst ist und Du das gerne ausklammern oder anders darstellen würdest - aber Du belügst Dich doch nur selbt damit. Es ist okay, seine Meinung zu ändern, oder anders zu handeln, als man daher redet (dass tun wir alle irgendwann mal), aber dann bitte keine Märchen erzählen :)
 
Habe ich einen Denkfehler? Einerseits steht im Artikel ein plus von 20% der 4060 gegenüber der 3060.
Dann im konkreten Fall 92 zu 101 FPS. Das sind weniger als 10%.
 
Habe ich einen Denkfehler? Einerseits steht im Artikel ein plus von 20% der 4060 gegenüber der 3060.
Dann im konkreten Fall 92 zu 101 FPS. Das sind weniger als 10%.

Die 20% sind eben ein Durchschnittswert, ist von Spiel zu Spiel unterschiedlich. Wobei es in Wirklichkeit weniger als 20% sein sollen wie man munkelt.
 
Es heißt ja oft, RT benötigt eine starke CPU.
Kann man eingrenzen welche aktuelle CPU für RT am meisten Sinn macht? :-o
Sorry, wenn das hier nicht so ganz passt.
 
Hey, ich bin der Erfinder von "Warum immer Ultra", also mir brauchst du das sicher nicht zu erzählen. Ich wollte nur ein Beispiel nennen, bei dem 3090-Nutzer das erste mal dachten "************, jetzt wäre die 4090 tatsächlich geil", einfach, weil das Spiel so verdammt gute Grafik hat, die man nicht verpassen möchte. Ich habs dann einfach mit DLSS-Q durchgezockt, sah ja trotzdem klasse aus. ;)
In was für einer Auflösung soll das gewesen sein? DLSS-Q in UHD hat die 2080Ti schon mit annehmbaren FPS gemacht, bzw. oft sogar unter 90% Auslastung kassiert weil der 5800X nicht ganz hinterher kam.

@topic: Also weiter auf richtige Tests warten. :ka:
 
Wartet definitiv auf ein paar Messungen ;)
Das könnte eventuell nicht ganz so einfach und simpel sein, wie man zuvor denken mag... vielleicht gar etwas kompliziert und deutlich weniger selbsterklärend, als beispielsweise "Frameverdoppelung".

(Diese Bezeichnung können wir übrigens wieder abschaffen, das trifft maximal im Bestcase mit einer RTX 4090 zu).

EDIT: Hier ist ein Hint. Da kann man es schon erahnen.
(Der Zugewinn sollte gleich groß sein, wenn man der Erzählung glaubt, dass die FG bei allen Karten gleich schnell arbeitet. Tut sie ja vielleicht. Aber gibt es eventuell andere Faktoren? Bei RTX 4070 und RTX 4060 Ti ist der Zugewinn nämlich definitiv NICHT gleich. Worin unterscheiden sich die Karten, was könnte den Messwert wohl beeinflussen, warum bringt die FG bei der 4060 Ti prozentual weniger als bei der RTX 4070? - So, genug Wink mit dem Zaunpfahl, ich hab noch zu Arbeiten.)

1687876484880.png

https://www.pcgameshardware.de/Deep...60-Ti-Frame-Generation-Performance-1420538/2/

Gruß,
Phil
 
Zuletzt bearbeitet:
Ich kann es problemlos mit 12GB spielen. Diese Aussage kommt mir spanisch vor.
Mit dem Speicher hat das nichts zu tun. Aber nativ UHD? Das packt die 3090 einfach nicht mehr flüssig, was vorher in den meisten (oder sogar allen) Spielen kein Problem war. In WQHD sind es noch ~60 Fps. Ich bevorzuge glatte 80 Fps (die sehen für mich einfach flüssig aus) und das hat meine 3090 halt in Plague Tale nicht mehr geschafft. Ich las aber auch von vielen anderen hier im Forum, die sich darüber gewundert haben, wie GPU-lastig dieser Titel ist.
In was für einer Auflösung soll das gewesen sein? DLSS-Q in UHD hat die 2080Ti schon mit annehmbaren FPS gemacht, bzw. oft sogar unter 90% Auslastung kassiert weil der 5800X nicht ganz hinterher kam.
Der 5800X dürfte recht oft nicht hinterhergekommen sein, weil das Spiel ebenso GPU- wie CPU-lastig ist.

Ich weiß jetzt auch gar nicht, was ihr eigentlich von mir wollt ^^ Ich habe in Plague Tale zum ersten Mal bemerkt, dass es gerne etwas mehr GPU-Leistung sein dürfte. Und so ging es auch vielen anderen. Mehr wollte ich damit nicht sagen. :ka:
 
Die Überschrift spricht Bände:

"Reicht eine taufrische Grafikkarte für ein rund 2 Jahre altes Game?" Das man sich überhaupt die Frage stellen muss zeigt doch, dass der Abstand zur Vorgänger-Gen irgendwie zu eng ist. Für eine 4050 wäre das meinetwegen eine akzeptable Vorstellung aber so ist das Mist. AMD ist fast noch schlimmer, die 7800XT wird performancemäßig nur knapp vor der 6800XT liegen.
 
Um mal zur 4060 zurückzukommen: Wenn ein Hersteller explizit mit RT wirbt, sollte auch so getestet werden...aber dann auch mit DLLS3 inkl. FG.

Um den fehlenden generellen Fortschritt zu verbergen?
Das ist genau so sinnlos wie die Influencer welche ein früheres NDA von nVidia bekommen, um geschönte Benchmarks zu zeigen, lächerlich...
 
Alle Influrenzaer, Die vorzeitig testen dürfen, haben die Auflage von Nvidia, nur Test´s mit Dlls zu veröffentlichen.
Rastering-Ja nicht-sonst denkt der Kunde noch, Das wäre ne Mogelpackung!
Ich kenn mich aus - lag 2 Wochen mit Influrenza im Bett!
Gruß Yojinbo
 
Um den fehlenden generellen Fortschritt zu verbergen?
Das ist genau so sinnlos wie die Influencer welche ein früheres NDA von nVidia bekommen, um geschönte Benchmarks zu zeigen, lächerlich...
Da ist nichts lächerlich, mir geht's nicht darum geschönte Benchmarks zu zeigen. Es geht mir darum das zu testen was die Karte können soll. Und wenn FG stottert, und RT eben nur mässig gut funktioniert, so muss das im Test ermittelt werden.
 
Was da Nvidia macht ist erbärmlich und lächerlich. Sage nur RTX 20ziger die in Tomb Raider nicht ihre 60FPS in 1080p gepackt zu haben.
Und mit der 30ziger karte 3060 mit der 8 oder 12GB version ist ne reihen katastrophe gewesen. Vor allem weil es zu teuer ist und ne überlaufenden haufen produziert wird der von video-speicher stammt. :-D

Was soll der müll NVidia. Und vor allem die neuerlichen PCIe4.0 8 Lanes die für 4.0 okay sind aber nicht das non plus ultra sind und bei PCIe3.0 ist es ne abseluter einbruch dass es unspielbar wird und einfach nur für die Tonne is.

Das Problem ist dass dann noch vram ne rolle spielt ne interface und einfach nur die rasterleistung (die sehr warscheinlich nicht schlecht ist und energie effizient) der rest hat fast 0 fortschritt wiederfahren und am ende nur der preis in die hähe gegangen. So was ist nicht zu kaufen. Da es einfach nur mist was da passiert.
Die frage ist wer den rotz kauft. Ich defenetiv nicht und wenn nvidia seit der RTX20er weiter kaum was ändert sondern nur die gier siegt bin ich raus. Das ist einfach das falsche signal an den markt und dass wird nicht nur mit ne grafikarten sommer loch begründet bleiben die absätze wird unter der 4070 selbst die nicht wirklich posetiv bleiben. Eher negativ werden.
 
Ich bin sicher kein NV Fan, aber 90 FPS, auf Ultra, ist für mich nicht unspielbar.
Die 4060 schafft in FHD Nativ 90fps mit Pathtracing?
Zu verlangen man MUSS mit RT testen ist nur dummes NV gebashe.
danke für den konstruktiven Einstieg in eine Diskussion
Für mich und viele andere ist RT noch komplett uninteressant
das ist schön für dich. Für die Entwicklung der Spielegrafik ist es halt die Zukunft.
, jetzt zu VERLANGEN, dass die 4060 Cyberpunk mit RT und ohne Hilfe flüssig darstellen soll, ist einfach lächerlich.
ja, absolut lächerlich. Was erlaube ich mir nur, dass ich von einer 300€ Karte erwarte, dass es in der geringsten gängigen Auflösung ein seit 5 Jahren beworbenes Feature brauchbar darstellt.
Selbst meine 6800xt schafft, laut Youtubevideo, keine 60 FPS, wenn RT+FSR an sind, in 1080. Und die Karte kostet deutlich mehr.
das liegt aber an deiner Kaufentscheidung. Wir reden hier eben nicht von AMD die noch Jahre hinterher sind wenn es um RT geht, wir reden von einer Nvidia-Grafikkarte. Nvidia ist die Firma die hybrides Echtzeit-Raytracing seit 5 Jahren propagiert.
Und schau dir mal hier an, wo eine 6800xt im Vorzeigetitel steht:
Das Ding ist langsamer als eine 2060 12 GB (2018 Chip, 16nm basierender Prozess), 3050 (Billigchip, 10nm Prozess (Samsung 8nm).
Es zeigt, dass in dieser Disziplin a) Nvidias Vorzeigespiel gezeigt wird und b) AMD noch Jahrelang hinten ist.
Hier also eine AMD als Beispiel heranzuziehen um zu zeigen, dass man das einfach nicht erwarten könne ist halt nicht besonders durchdacht.
Läuft doch auch mit RT flüssig, man muss halt DLSS3 nutzen.
Du meinst es läuft mit 60+fps, aber ob es sich so anfühlt ist dann eine andere Frage
Versteht mich nicht falsch, ich bin kein Freund von "FakeFPS", aber von einer 400 € Karte Dinge zu verlangen, die die Konkurrenz nicht mit ihren 600 € Karten schafft, ist schon etwas peinlich.
Peinlich, soso.
Ich vergleiche aber nicht Äpfel und Birnen. Du kaufst dir eine Karte deren Raytracing-Fähigkeiten schon bei Release eher schwach waren (und eher beim Rastern überzeugt) und meinst diese mit "der anderen" Firma vergleichen zu können.
Wie man gerade in CP sieht. Oder in Portal RTX. usw... sind die 2 Karten/Architekturen nicht vergleichbar.

Was hier peinlich ist, ist dass dieser Chip, der eigentlich für eine 4050 (GA 107, vs sonst immer GA106, ca 200mm² bei einer xx60) konzipiert war für 300€ verkauft wird.

Ich bin ganz klar im Team AMD, weil sie aktuell, für mich, das bessere Preisleistungsverhältnis haben. Aber dumm auf NV draufhauen bringt halt überhaupt nichts.
ok, dann sollen wir also einfach fressen was uns serviert wird.
Völlig egal ob Nvidia offiziell zugibt, dass man zu viel verlangt, gell?

Und was passiert, wenn man die neuen Preise einfach akzeptiert? Jap, sie werden beibehalten und erhöht.
Am Besten ist es sich über gar nichts mehr aufzuregen, und mit sich einfach Schlittenfahren zu lassen.
Blöd nur, dass ein "Shitstorm" durchaus auch Sinn machen kann (siehe 4060 Ti 16 GB)
 
Zuletzt bearbeitet:
Da ist nichts lächerlich, mir geht's nicht darum geschönte Benchmarks zu zeigen. Es geht mir darum das zu testen was die Karte können soll. Und wenn FG stottert, und RT eben nur mässig gut funktioniert, so muss das im Test ermittelt werden.
Man muss halt beides testen. Und vielleicht noch ein paar andere interessante Punkte.

Keine Sorge. Ich hab (bzw wir haben) zwar auch Nvidia-Zahlen, aber die könnt ihr ja auch bei Nvidia nachlesen, dafür braucht's doch keinen Redakteur. ;)

Gruß,
Phil
 
Zurück