Cool, dann kann ich ja weiterspielen.Mit dem letzten Update, ja. Ich hatte das auch.
![sm_=) =) =)](/styles/ctec/images/smilies/02 sm_=).gif)
![Fettes Grinsen :D :D](/styles/ctec/images/smilies/biggrin1.gif)
Cool, dann kann ich ja weiterspielen.Mit dem letzten Update, ja. Ich hatte das auch.
Das klingt wie die Silky Smooth 720p FSR Lösung auf den Konsolen.Als ob sie mit dem Patch die interne Renderauflösung auf VGA festgenagelt gehabt hätten.![]()
Zugegeben es sieht aber echt schon arg generisch aus. Wie ne 50:50 mischung aus forespoken und ghost wire tokio. Die tests sind jetzt auch nicht wirklich überschwänglich gerade in story und gameplay soll das spiel Schwächen haben. Quasi ein typischer Grafikblender....Was ein Blödsinn. Hast es sicher nicht mal gespielt..
Das liegt aber teilweise an zwei Problemen. 1. Spiele werden immer langer, da Spielzeit zum marketing bussword verkommen ist. Leider wird die Spielzeit oft nur mit minderwertigem content gestreckt um die magische 100 zu erreichen ab der ein spiel oft erst an vollpreis Wert angesehen wird.@PCGH_Dave Ich finde dieses neue "Benchmark light" Format klasse! Lieber so und zeitnah, als gar nicht oder zu spät und obendrein liegt in der Kürze bekanntlich die WürzeKann außerdem deine und Raffs Sicht der Dinge auch nur bestätigen, was "Spiele unter dem Radar" betrifft. Ob nun Immortals oder Atlas Fallen, um nur zwei Beispiele zu nennen: Games abseits des Mainstream Hypes hatten schon immer einen festen Platz auf meiner SSD
"Dank" Metacritic wurden ja viele Spieler leider dazu erzogen, dass praktisch nur noch alles mit einer 8/10 oder 9/10 überhaupt würdig ist, gespielt zu werden. Einfach traurig, denn auch viele Titel im 60er oder wenigstens 70er Bereich machen ordentlich Laune und selbst für Genre-Fans kann sich noch ein Titel im oberen 50er oder niedrigen 60er Bereich lohnen...
Last but not least: Klasse, wie gut AMD GPUs in Immortals performen - meine 6950 XT ist bereit![]()
Forespoken ist das erste Spiel. Was mir einfällt. Es ladt schlichtweg viele der Texturen gar nicht. Egal auf welchen einstellungen. 8GB sind ihm zu wenig.Vram panik habe ich noch nie verstanden. welches spiel macht bitte probleme wo ich nicht etwas dagegen etwas tun kann ohne einbussen in der optik? ich passe die settings immer an, da ultra frisst ohne grund meistens.
Vielleicht liegt es an FSR und DLSS.
Du meinst so ie in DesodreIch lach mich schlapp.
Es entwickelt sich leider aktuell eher so, das je nachdem wie intensiv RT zum Beispiel genutzt wird. Wenig AMD oft sehr stark und wenn RT intensiv genutzt wird, ist AMD oft auch sehr schwach.
Also, können beide Seiten einen Besen fressen.
Ich bin gespannt wie sich die nächsten UE5 Spiele so entwickeln.
Amen ???Und man sollte den Titel schon gespielt haben, bevor man sich eine Kritik erlaubt.
Schon krass irgendwie, erst bei Starfield (https://www.pcgameshardware.de/Star...d-Grafikkarte-Benchmark-Tuning-Tipps-1428215/) und jetzt auch hier Karten wie die 3080/4070, welche ja eigentlich für 1440p gedacht sind, bei hohen/maximalen Details sowie 60fps lieber "nur" FHD anpeilen sollten.
Laut Raff liegt es daran, das man einfach aus der UE5 alle Register gezogen hat und ebenfalls daran das mit den neuen schmankerln halt AMD einbraicht und Nvidia auftrumpft. Auch zu lesen im Test zur 7800XT, im Rahmen der neuen RT Benchmarks.Ich denke, Desodre ist als Ein-Mann-Projekt vor allem schlicht einzig und alleine nur für GeForce optimiert worden, da nur so eine Karte im Rechner dieses Entwicklers steckte.
Anhand der sehr wenigen Spielen mit UE5 lässt sich da m.M. kein Trend festlegen. Ausserhalb UE5 sieht es aber schon so aus, das RTX4000 mit zunehmender RT-Komplexität zusätzlich Land gewinnen kann. Was aber dann auch nicht verwundert, da auf diesen Karten RT in einem höheren Tech-Level integriert ist. Dafür stranden die kleineren RTX schneller am VRAM-Strand, bei der Kombi, RT benötigt mehr Speicher, NVidia bietet tendenziell weniger Speicher. Wobei dann auch bei den kleineren RTX die GPU-Puste trotz mehr RT-Power ziemlich rasch ausgeht.
was sind dann 3060 und co. ? beschissene Full HD Karten ?Ich sehe eine 3080, bzw. 4070 sowieso eher als gute 1080p Karten. letztere vielleicht mit einer leichten Tendenz zu 1440p
Wenn man sich Tests von PCGH zum Beispiel anschaut, dann kann eine 4070ti und 7900XT meistens in 1440p max Details, inkl. RT.was sind dann 3060 und co. ? beschissene Full HD Karten ?
Ich kann alles in WQHD und teilweise 4k zocken, klar, natürlich nicht mit allem drum und dran, aber hohen Settings.
Laut Powertechup ist die 4070 TI Overall 15 % schneller, sie müsste dann ja auch eigentlich auch nur eine sehr gute Full HD Karte sein, nach deiner Logik :p
Und das sollte man wissen, wenn man PCGH-Benchmarks konsumiert. Denn das sagt Raff eigentlich bei jeder Gelegenheit: Wir testen in sehr lastigen Szenarien, ihr könnt im übrigen Spiel also durchaus höhere Zahlen erwarten, seit aber nach der Lektüre davor gefeit, wenn es im Spiel dazu mal zur Sache geht. Schönwetter-Benchmarks könnt ihr euch ja bei Youtube-"Tests" anschauenAlles was darüber hinaus geht, ist einfach nur aus Lust an der Freude.
Ja es sieht besser aus, aber ist eigentlich sehr unwirtschaftlich.
Also wenn von über 100 Lets Play Kanälen genau 0 dieses Spiel spielen kann man schon sagen das es ein Flop ist. Das es Raff gefällt ist ja OK. Aber trotzdem wird es noch zu keinen Hit.Gefloppt? Wo? Nur, weil das Team keine Abermillionen in Werbung und Marketing steckt? Raff hat es schon gezockt und der ist begeistert. Ich hatte noch keine Zeit gehabt bis jetzt. Beim Anspielen für die Benchmarks hat es aber Lust auf mehr gemacht.
Kommt mal aus eurer Bubble raus, wo alles nur geil ist, wenn dafür monatelang geworben und ein Hype erzeugt wurde. Dann entdeckt ihr die echten Perlen
Anhang anzeigen 1437127
Ich bezog mich eher auf Rasterleistung - wenn die Features ausgefahren werden haben die neuen Karten natürlich nen klaren Vorteil. Dafür muss man halt ordentlich draufzahlen. Oft reichen 2-3 Settings runter auf High und ich habe dieselben fps wie eine TI auf Ultra, als Beispiel. Ich finde upgraden nichtmal " schlimm", überlege jetzt schon manchmal, ob es dann Richtung Intel geht oder ein x3d wird etc. Aber erstmal muss die Gaming Industrie abliefern und mich auch überzeugen, ob es sich überhaupt lohntDer 4070 und der 3080 fehlen da schon die entscheidenen FPS. Also ja, ich persönlich sehe eine 4070 und eine 3080 eher bei 1080p und eine 4070ti eher bei 1440p.
Da bei mir das Basteln oft auch im Vordergrund steht, überlege ich immer was ich ändern kann.Ich bezog mich eher auf Rasterleistung - wenn die Features ausgefahren werden haben die neuen Karten natürlich nen klaren Vorteil. Dafür muss man halt ordentlich draufzahlen. Oft reichen 2-3 Settings runter auf High und ich habe dieselben fps wie eine TI auf Ultra, als Beispiel. Ich finde upgraden nichtmal " schlimm", überlege jetzt schon manchmal, ob es dann Richtung Intel geht oder ein x3d wird etc. Aber erstmal muss die Gaming Industrie abliefern und mich auch überzeugen, ob es sich überhaupt lohnt![]()
In der Tat.Alles was darüber hinaus geht, ist einfach nur aus Lust an der Freude.
Ja es sieht besser aus, aber ist eigentlich sehr unwirtschaftlich.
Ein ungleicher VergleichIn der Tat.
Habe mein System Frühjahr 2021 gebaut (5900x, 6700XT, WQHD res.), aber mache mir schon Gedanken, ob ein Upgrade auf 4070/7800XT oder sogar 4070TI/7900XT/X sinnvoll wäre. Rational ist das ja nicht wirklich, 50% Mehrleistung in den Tabellen sagen aber das Gegenteil![]()