News Cyberpunk 2077: Phantom Liberty - Der Geforce RTX 3090 Ti und 3080 geht langsam die Luft aus

Für mich sieht es wie eine Kaufwarnung für nicht RTX40xx Besitzer aus.:nicken:

Wer das Geld nicht hat oder ausgeben will, sollteCP2077 nicht kaufen, da es schlecht läuft...:schief:
 
Wartet doch einfach mal die Tests ab die PCGH macht. Was NV da aufs Blatt klatscht muss nicht unbedingt stimmen und will die User nur zum Kauf anregen. Wie stark muss CP2077 aufgebohrt sein, damit es nicht mehr rund läuft? Und ausserdem liegt es auch immer an einem selbst was man einstellt.
 
Das ist der Punkt.
Ich habe Cyberpunk zu Release mit einer 2070 Super in WQHD(1440p) sehr gut mit angepassten Settings (+ sogar etwas Raytracing) spielen können (ca. ~45 FPS).

Klar geht mit der jetzigen 4090 viel mehr, aber ich habe mit der 2070 (fast) den selben Spaß im Spiel gehabt.
Ich laufe gerade mit einer RTX 3070 in Full HD und da sollte das ja hoffentlich noch Irgendwie machbar sein ^^. Ich werde die 4000er überspringen da ich sehr wahrscheinlich aktuell bei Full HD bleibe. 144 FPS sind halt das was ich will. Meistens. Und dann Mal schauen was die 5000er kann
 
warte immernoch auf die GOTY, hoffe die gibts dann als Weihnachtsspecial (auch wenn die Zeit von September bis Dezember doch arg kurz ist), dann kann ich ja CP in einem Jahr fürn 20er abstauben
 
Jensen hat bestimmt bei Intel angerufen um sich ein paar verwirrende Folien und naming schemes machen zu lassen. Anders kann man sich sowas wie DLSS 3.5 nicht erklären.
 
Die alten RTX GPUs sind halt einfach auch nicht für Raytracing geeignet :lol::lol::lol:
Naja, immer noch besser als die AMD Alternativen, also waren die in ihrer Zeit die beste Option.

Das sich das mit jeder Gen wieder weiter entwickelt ist doch klar gewesen. Verstehe die lachenden Smileys nicht ;)

Und ich will ganz stark hoffen, das es so bei jeder neuen Generation so kommt ;).

Nur so geht Fortschritt.
Für mich sieht es wie eine Kaufwarnung für nicht RTX40xx Besitzer aus.:nicken:

Wer das Geld nicht hat oder ausgeben will, sollteCP2077 nicht kaufen, da es schlecht läuft...:schief:
Würde ich so nicht sehen.

Selbst auf einer GTX1070 sah CP super aus. Nur halt wer das Maximum an Optik will, der hat besser für CP eine grüne Karte und davon auch am besten eine aktuelle.

Denke CP wird auch weiterhin nach unten skalieren.
Wenn CP aktuell ist, sind es die 30XXer aber auch ?.
Du willst aber nicht ernsthaft ein Spiel, das in der Zeit deutlich mehr Optionen bekommen hat, mit Hardware vergleichen.

So kann ein Spiel halt aktuell gehalten werden. Habe selten gesehen, das eine GPU nachträglich vom Hersteller zusätzliche Recheneinheiten bekommen hat ;)
Ich habs sogar auf meiner 1070 gespielt. ^^
Dito, dann mit der 3060ti und als nächstes mit meiner 4070ti...
 
Naja, immer noch besser als die AMD Alternativen, also waren die in ihrer Zeit die beste Option.

Das sich das mit jeder Gen wieder weiter entwickelt ist doch klar gewesen. Verstehe die lachenden Smileys nicht ;)

Und ich will ganz stark hoffen, das es so bei jeder neuen Generation so kommt ;).

Nur so geht Fortschritt.
Ich habe von Nvidia GPUs gesprochen. Was hat AMD da jetzt mit zu tun? :what:
 
Also selbst zu Release ging schon bei meiner RTX3090 die Puste aus. Das ist ja nun nix neues. Aber alles nur Verwendung mit hohen R.T Settings. Willst nen schönes flüssiges Spiel dann machst halt R.T nicht auf Anschlag. Dann sind die 60 FPS Garantiert. Willst das doppelte an FPS dann machst R.T einfach aus. Auch dann ist das Spiel immer sehr schön. Die Specs sind zudem in Ultra R.T. Da schmilzt halt die RTX3090. Paar Stufen herunter Stellen und schon sind die 50-70 FPS wieder drin. Sehe da kein Problem. R:T frisst halt die FPS unheimlich gerne.
 
Ich habs sogar auf meiner 1070 gespielt. ^^
ich hab es damals auch versucht aber war leider unmöglich
komplette ruckelorgie bei 50frames auf low
das game aber leider so leer und sterial wie ne techdemo und nach ner stunde ausgemacht
wo ist die liebe vom witscher hin?
und warum sieht jeder npc wie ein npc aus? das hat wichter ja schon besser gemacht
 
Ich habe von Nvidia GPUs gesprochen. Was hat AMD da jetzt mit zu tun? :what:
Wo dein Problem, hä? ;)

Verstehst du das wirklich nicht, oder versucht du nur den Fokus zu verstreuen...


Du hast RTX3000 belächelt weil die RT Leistung heute nicht mehr so prall ist.

Dazu sage ich halt, das diese aber zu Ihrer Zeit die besten Optionen waren.

Der Zusammenhang ist vorhanden, wenn man nicht versucht den auszusperren.
ich hab es damals auch versucht aber war leider unmöglich
komplette ruckelorgie bei 50frames auf low
das game aber leider so leer und sterial wie ne techdemo und nach ner stunde ausgemacht
wo ist die liebe vom witscher hin?
und warum sieht jeder npc wie ein npc aus? das hat wichter ja schon besser gemacht
Mit der 1070 kam ich damals auf einen guten Mittelmix, ohne Geruckel.
 
Schade, dass man nicht wie bei einer Revolution Nvidia boykottiert, damit die fühlen wie es ist.
Was soll NVIDIA "fühlen"? Konzerne fühlen nicht, die orientieren sich höchstens um, wenn kunden nicht mehr kaufen.
Oder gehen auf Kleinserie, was dann nochmals teurer ist. Naja, muss ich nicht verstehen wenn man da so emotional wird.........
Die NVIDIA GPUs sind dir zu teuer, such dir billgere Mitbewerber, oder kaufe gebraucht - Fisch geputzt.
 
Ich laufe gerade mit einer RTX 3070 in Full HD und da sollte das ja hoffentlich noch Irgendwie machbar sein ^^. Ich werde die 4000er überspringen da ich sehr wahrscheinlich aktuell bei Full HD bleibe. 144 FPS sind halt das was ich will. Meistens. Und dann Mal schauen was die 5000er kann
Cyberpunk 2077 in WQHD@144 bei Ultra Settings + Path Tracing mit DLSS 3 Quality Preset + Frame Generation sind mit der 4090 kein Problem.
Ich kann es nur begrüssen, wenn endlich ein paar Spiele herauskommen, die etwas mit High-End Hardware anfangen können.
Um ältere und/oder Mittelklasse Geräte zu unterstützen, kann man ja die Settings im Game herunter regeln.
Dafür sind sie da!
Immerhin läuft der ganze Quatsch ja auch auf den ganzen Gummelgurken äh Next-Gen-Konsolen.
 
Zurück