The-Witcher
PC-Selbstbauer(in)
Mann muss aber sagen optisch haben wir mit CP schon einen Lvl erreicht, wo ich finde, mehr gerne aber hier ist ein Punkt erreicht.
Toller Test, auch mal mit aktuellen Spielen! Krass! Schade das meine Auflösung 3840x1600 nicht berücksichtigt wurde. Habe momentan mit Framedrops in Far Cry 6 zu kämpfen. Habe eine 3090 und einen i9-9900k@5Ghz und 32GBRam@3600. Hatte bis vor 2 Wochen noch ca. 65-90 fps und jetzt nur noch 35-50 fps bei gleichen Einstellungen. Habe bereits den alten NVidia Treiber 527.26 probehalben installiert. Das hatte keinen Effekt. Allerdings hab ich aktuellen Treiber 528.06 vorab nicht mit DDU oder so deinstalliert, sondern nur per Deinstallationsroutine. Jetzt habe ich wieder den aktuellen Treiber 528.02 drauf. Karte zieht in FC6 nur (noch) ca. 250 Watt. Bei Metro Exodus oder NFS-Unbound zieht sie bis zu 350 Watt. Beides mal mit 90-100 % Auslastung und ca. 50 °C. Ich raff´s nicht, woran das liegt? Hab das System (Win11, 22H2/Windows Feature Experience Pack 1000.22638.1000.0 mit allen Updates) am Sonntag neu aufgesetzt deswegen. Kein Effekt! Hat noch jemand einen Tipp? Ubisoft habe ich angeschrieben. Keine Reaktion bisher.
@Topic: Dann ist die 4090 für CP2077 also auch nicht der Heilsbringer... Läuft bei mir auch mit 50-60 fps! Witcher 3 4.0 wäre auch noch lustig gewesen....
Edit: Ok, vielleicht falscher Thread hier aber vielleicht hat jemand einen Tipp?! Sizebar ist aktiviert.
Danke schön für die Antwort. Warum hatte ich dann vorher nur über 80 fps? Hab doch nix verändert an der Kiste. Gerade habe ich echt überlegt, mal Win10 aufzusetzen nachdem ich Watch dogs Legion ausprobiert hab... Genau der gleiche Käse.. DLSS hat gar keine Einfluss mehr auf die FPS. Komme kaum über 35 fps. Hatte auch schon das Dark Power Pro 1.000 Watt in Verdacht aber da hab ich gelesen, wenn da ein defekt vorliegt, flitscht die Kiste eher aus und taktet nicht runter. Hatte ich noch nie! Hab das Gefühl irgendwas bremst das System aus.cpu limit
Sollte leicht schneller als eine RTX 2080 super sein.Ist die schneller als ne 2070Super bei Raytracing?
War das nun ironisch gemeint ?
Oder ernsthaft ? Falls ja, ich spiele TW3 Nextgen in WQHD mit RT und 30 fps und ich lebe noch (vorher mit einer RTX 3070, jetzt mit einer RX 6800 XT). Mir wird auch nicht schlecht davon. Bei Egoshooter oder ähnlich wäre das zu wenig, aber da sieht man mal wieder, es kommt darauf an wo.
Mit RT on kannst du das Thema Speichermangment eigentlich an den Nagel hängen, da gibt es nicht mehr viel zu managen, erst recht wenn HDR dazu kommt. Dann erledigen sich die Tricks der Hersteller meist weil nicht praktikabel.Sollte leicht schneller als eine RTX 2080 super sein.
Kurioses Far Cry 6 Ergebnis der RTX 3080....oder von der RX 6700. So ist es auf jedenfall nicht plausibel.
Eine erheblich langsamere RX 6700, ebenfalls 10GB und schlechteren VRam- Management, ist mal einfach doppelt so schnell als die RTX 3080
Anhang anzeigen 1414579
Eine RX 6600XT 8GB...mit Krüppelanbindung, schlägt eine RTX 3070 um 50%
30fps bei Witcher??? Ich glaub ich geh am Stock... hab wegen meiner Office-Karte extra ein paar Details u.A. weitsicht etc geopfert. Um wenigstens 60-75fps zu haben die Voreinstellung beim Next gen Update war so. das etwa 30-35fps möglich waren in WQHD.War das nun ironisch gemeint ?
Oder ernsthaft ? Falls ja, ich spiele TW3 Nextgen in WQHD mit RT und 30 fps und ich lebe noch (vorher mit einer RTX 3070, jetzt mit einer RX 6800 XT). Mir wird auch nicht schlecht davon. Bei Egoshooter oder ähnlich wäre das zu wenig, aber da sieht man mal wieder, es kommt darauf an wo.
Ist ein Argument, ich bin mir aber nicht sicher ob jede Anwendung in der Lage ist die volle Busbreite in so einem Fall zu nutzen. Die NV Karten sind übrigens langsamer bei der Busbreite, der Treiber scheint da irgendwas zu reservieren.OK VRam Management hin oder her...es gibt keinen Grund warum eine RTX 3070 50% langsamer sein soll als eine RX 6650XT. Bei VRam Überlauf müsste die RX 6650XT, durch ihre Anbindung, normal sogar mehr einbrechen.
Ja ich hab das wohl auch so aufgenommen. Aber 30fps sind 30fps! Der Leistungsverlust in Form von Bildern in Sekunden rechtfertigt die RT Nutzung niemals für mich, auch nicht mit ner vermeintlichen neuen RT-Fähigen GPU<-- Wobei ich persönlich die alte Version sowiso schöner finde. Düsterer..irgendwie...Immersiver!@LastManStanding - Hast Du es vergessen ? Es geht um TW3 *mit* aktiviertem Ray Tracing, allen Details und WQHD. Nicht nur um TW3 mit DX11 oder DX12 ohne Ray Tracing.
Sehe ich überhaupt nicht so, man kann gerne beide Beispiele bringen, mehr Daten sind immer besser als weniger.Far Cry 6 ist als Benchmarkvergleich aus meiner Sicht einfach sehr unseriös, das ist genauso wie wenn man Portal RTX als Vergleich hernimmt und behauptet wie schlecht AMD Karten wären
P/L Tabellen sind komplett sinnfrei, weil die Preise zu sehr schwanken, P/L sollte man am besten immer selbst berechnen.Vielleicht hab ich mich gerade wo vertan, aber wenn man den P/L Index mit dem Preis von Gebrauchtkarten füttert käme bei der 3090 für 850 € ein Wert von 85,5 raus, knapp hinter der 4070 Ti allerdings mit doppelter Speichermenge. Damit bin ich zufrieden.
Was ich damit sagen möchte: Macht doch eine Liste mit Gebrauchtpreisen dazu, das würde vielen helfen.
Gibt die Außreißer nach unten eben nicht nur bei AMD!Sollte leicht schneller als eine RTX 2080 super sein.
Kurioses Far Cry 6 Ergebnis der RTX 3080....oder von der RX 6700. So ist es auf jedenfall nicht plausibel.
Eine erheblich langsamere RX 6700, ebenfalls 10GB und schlechteren VRam- Management, ist mal einfach doppelt so schnell als die RTX 3080
Anhang anzeigen 1414579
Eine RX 6600XT 8GB...mit Krüppelanbindung, schlägt eine RTX 3070 um 50%
Entweder das, oder alle Titel mit FSR 1.0 damit man zumindest gleich skaliert.Aber das verfälscht alle FPS Ergebnisse in Spielen je nach Auflösung um 20- 44 % was im Text nicht erwähnt wird !
Für mich sind es jetzt nur GPU Fake "FPS-Benchmarks" welche die zu hohen Preise der "Mittelklasse" GPU's schmücken und rechtfertigen sollen.
Bitte überdenkt es nochmal und testet die Spiele nur in nativer Auflösung auch wenn dadurch die "Mittelklasse"-GPU's katastrophal in "anspruchsvollsten" Spielen durchfallen.
Merkwürdige Ansicht. Die Anforderung an die Rasterleistung wird sich in Zukunft also nicht erhöhen?Für mich der wichtigste Index 2023 neben dem VRAM, denn eigentlich haben alle neuen Karten mittlerweile genug Rasterleistung für Alles.
Außer wirklich alles wird getestet, was natürlich komplett weltfremd ist, wird man es nie allen Recht machen können.Darüber habe ich breit und mehrfach nachgedacht und bin erneut zum Ergebnis gekommen, dass niederkeulende "MAXED OUT"-Benchmarks nur wenigen Leuten helfen. Wir wurden in der Vergangenheit öfter dafür kritisiert, dass wir Spiele gezielt nach den anspruchsvollsten Szenen absuchen und dann mit maximalen Details testen. Das sei praxisfern, so die Kritik einiger Leser. Auch wenn ich persönlich nicht zustimme: Am Ende testen wir ja nicht für unser persönliches Vergnügen, sondern für möglichst viele Leute. Bestimmte Qualitätsstandards (wie die eigenen Benchmarkszenen anstatt generischer Flybys) sind unumstößlich, aber die Settings dürfen gerne auch mal "alltagstauglich" sein. Viele Zocker sind an Raytracing interessiert, nehmen aber die immensen Leistungskosten nicht in Kauf. Da hilft es, wenn man durch smarte Settings ein etwas freundlicheres Bild zeichnet, anstatt alles niederzustrecken. Für die Benchmark-Revision in einigen Monaten kommt die Debatte dann wieder auf den Tisch und wir schauen mal. Die Wahrscheinlichkeit, dass erneut moderate Einstellungen in den Indizes zum Einsatz kommen, welche mit sporadischen, anlassbezogenen Extremtests ergänzt werden, ist aber hoch.