Special Immortals of Aveum im Benchmark-Test: Ist Ihre Hardware der Unreal-Engine-5-Pracht gewachsen?

ja ist doch immer so das ein Teil des Spiels super aussieht und der andere teil des Bildes wie aus der Ps3 Zeiten oder älter.
Und wenn man ohnhin nur auf Full HD zockt dann sieht man den matsch nicht so stark wie bei 4k und so.Hat alles seine vor und Nachteile.
 
Was ein Blödsinn. Hast es sicher nicht mal gespielt..
Zugegeben es sieht aber echt schon arg generisch aus. Wie ne 50:50 mischung aus forespoken und ghost wire tokio. Die tests sind jetzt auch nicht wirklich überschwänglich gerade in story und gameplay soll das spiel Schwächen haben. Quasi ein typischer Grafikblender....
@PCGH_Dave Ich finde dieses neue "Benchmark light" Format klasse! Lieber so und zeitnah, als gar nicht oder zu spät und obendrein liegt in der Kürze bekanntlich die Würze :D Kann außerdem deine und Raffs Sicht der Dinge auch nur bestätigen, was "Spiele unter dem Radar" betrifft. Ob nun Immortals oder Atlas Fallen, um nur zwei Beispiele zu nennen: Games abseits des Mainstream Hypes hatten schon immer einen festen Platz auf meiner SSD :-P "Dank" Metacritic wurden ja viele Spieler leider dazu erzogen, dass praktisch nur noch alles mit einer 8/10 oder 9/10 überhaupt würdig ist, gespielt zu werden. Einfach traurig, denn auch viele Titel im 60er oder wenigstens 70er Bereich machen ordentlich Laune und selbst für Genre-Fans kann sich noch ein Titel im oberen 50er oder niedrigen 60er Bereich lohnen...

Last but not least: Klasse, wie gut AMD GPUs in Immortals performen - meine 6950 XT ist bereit :D
Das liegt aber teilweise an zwei Problemen. 1. Spiele werden immer langer, da Spielzeit zum marketing bussword verkommen ist. Leider wird die Spielzeit oft nur mit minderwertigem content gestreckt um die magische 100 zu erreichen ab der ein spiel oft erst an vollpreis Wert angesehen wird.

Andererseits spielen scjon lange nicht mehr nur Kinder Videospiele und wir Erwachsenen haben nicht mehr die Zeit ALLE Spiele zu spielen.

Also versucht man sich auf die vermeintlich besten zu beschränken.
Vram panik habe ich noch nie verstanden. welches spiel macht bitte probleme wo ich nicht etwas dagegen etwas tun kann ohne einbussen in der optik? ich passe die settings immer an, da ultra frisst ohne grund meistens.
Forespoken ist das erste Spiel. Was mir einfällt. Es ladt schlichtweg viele der Texturen gar nicht. Egal auf welchen einstellungen. 8GB sind ihm zu wenig.

Wenn ein holztisch den detailgrad wie von einem Kindergartenkind das mit nur einem einzigen Braunstift gemalt hat ist das schon arg immersionsbrechend. Wenn manche Räume, inbesondere an deinem schlafplatz 10% der Texturen auf die Art fehlen ist es sogar untragbar....
 
Zuletzt bearbeitet:
Vielleicht liegt es an FSR und DLSS.

Du meinst so ie in Desodre ;) Ich lach mich schlapp.

Es entwickelt sich leider aktuell eher so, das je nachdem wie intensiv RT zum Beispiel genutzt wird. Wenig AMD oft sehr stark und wenn RT intensiv genutzt wird, ist AMD oft auch sehr schwach.

Also, können beide Seiten einen Besen fressen.

Ich bin gespannt wie sich die nächsten UE5 Spiele so entwickeln.

Ich denke, Desodre ist als Ein-Mann-Projekt vor allem schlicht einzig und alleine nur für GeForce optimiert worden, da nur so eine Karte im Rechner dieses Entwicklers steckte.

Anhand der sehr wenigen Spielen mit UE5 lässt sich da m.M. kein Trend festlegen. Ausserhalb UE5 sieht es aber schon so aus, das RTX4000 mit zunehmender RT-Komplexität zusätzlich Land gewinnen kann. Was aber dann auch nicht verwundert, da auf diesen Karten RT in einem höheren Tech-Level integriert ist. Dafür stranden die kleineren RTX schneller am VRAM-Strand, bei der Kombi, RT benötigt mehr Speicher, NVidia bietet tendenziell weniger Speicher. Wobei dann auch bei den kleineren RTX die GPU-Puste trotz mehr RT-Power ziemlich rasch ausgeht.
 
Schon krass irgendwie, erst bei Starfield (https://www.pcgameshardware.de/Star...d-Grafikkarte-Benchmark-Tuning-Tipps-1428215/) und jetzt auch hier Karten wie die 3080/4070, welche ja eigentlich für 1440p gedacht sind, bei hohen/maximalen Details sowie 60fps lieber "nur" FHD anpeilen sollten.

Ich sehe eine 3080, bzw. 4070 sowieso eher als gute 1080p Karten. letztere vielleicht mit einer leichten Tendenz zu 1440p

Die 4070ti und eine 7900XT sind dann brauchbare Versionen für 1440p und darüber dann die XTX und die 4080... Wer so viel Leistung braucht wie möglich, der muss dann halt zur 4090 greifen.
Ich denke, Desodre ist als Ein-Mann-Projekt vor allem schlicht einzig und alleine nur für GeForce optimiert worden, da nur so eine Karte im Rechner dieses Entwicklers steckte.

Anhand der sehr wenigen Spielen mit UE5 lässt sich da m.M. kein Trend festlegen. Ausserhalb UE5 sieht es aber schon so aus, das RTX4000 mit zunehmender RT-Komplexität zusätzlich Land gewinnen kann. Was aber dann auch nicht verwundert, da auf diesen Karten RT in einem höheren Tech-Level integriert ist. Dafür stranden die kleineren RTX schneller am VRAM-Strand, bei der Kombi, RT benötigt mehr Speicher, NVidia bietet tendenziell weniger Speicher. Wobei dann auch bei den kleineren RTX die GPU-Puste trotz mehr RT-Power ziemlich rasch ausgeht.
Laut Raff liegt es daran, das man einfach aus der UE5 alle Register gezogen hat und ebenfalls daran das mit den neuen schmankerln halt AMD einbraicht und Nvidia auftrumpft. Auch zu lesen im Test zur 7800XT, im Rahmen der neuen RT Benchmarks.

Also nein, liegt wohl nicht an einer Nvidia Optimierung. Lediglich an der RT Schwäche von AMD.
 
Dann spielt man halt das game ohne rt, das wird noch immer schön ausehen denke ich mal. Wird ja nicht nur auf rt alleine die Optik liegen. Wie gut es ausehen wird ohne jedliches rt das werde ich dann bei realen Spielen schon mal als Video zu sehen bekommen oder eher weniger?
 
Ich sehe eine 3080, bzw. 4070 sowieso eher als gute 1080p Karten. letztere vielleicht mit einer leichten Tendenz zu 1440p
was sind dann 3060 und co. ? beschissene Full HD Karten ? :D
Ich kann alles in WQHD und teilweise 4k zocken, klar, natürlich nicht mit allem drum und dran, aber hohen Settings.
Laut Powertechup ist die 4070 TI Overall 15 % schneller, sie müsste dann ja auch eigentlich auch nur eine sehr gute Full HD Karte sein, nach deiner Logik :p
 
was sind dann 3060 und co. ? beschissene Full HD Karten ? :D
Ich kann alles in WQHD und teilweise 4k zocken, klar, natürlich nicht mit allem drum und dran, aber hohen Settings.
Laut Powertechup ist die 4070 TI Overall 15 % schneller, sie müsste dann ja auch eigentlich auch nur eine sehr gute Full HD Karte sein, nach deiner Logik :p
Wenn man sich Tests von PCGH zum Beispiel anschaut, dann kann eine 4070ti und 7900XT meistens in 1440p max Details, inkl. RT.

Der 4070 und der 3080 fehlen da schon die entscheidenen FPS. Also ja, ich persönlich sehe eine 4070 und eine 3080 eher bei 1080p und eine 4070ti eher bei 1440p.

Alles darunter ist natürlich noch brauchbar und je nach Settings lässt sich auch viel länger schwächere Hardware nutzen.

Bei einem Neukauf für 1080p würde ich aber nicht unter einer 4070 ins Regal greifen. Weil es direkt bei Kauf schon zu schwach für Max Details bei 90% der Spiele ist.

Das ist individuell und auch nur meine Meinung.

Klar ist auch, wenn man weniger Geld ausgeben möchte, dann muss man natürlich stärkere Abstriche in Kauf nehmen.

Das ist die eine Seite!

Man kann das auch anders sehen. Gerade noch mit meinem Arbeitskollegen drüber gesprochen.

Eigentlich gibt es optisch überschaubare Unterschiede, zwischen Max Details und einem guten mittel / high Mix.

Es wird deutlich weniger VRam gebraucht und auch deutlich weniger Leistung. Mit einer 4070 wären man dann schon in 3440x1440p gut aufgestellt bis 2027, wenn dann gegen Ende des Jahres mal neue Konsolen anrollen.

Alles was darüber hinaus geht, ist einfach nur aus Lust an der Freude.
Ja es sieht besser aus, aber ist eigentlich sehr unwirtschaftlich.

PS: Für mich war eine 3060 schon nichtmal eine Notlösung zur Überbrückung bis es RTX4000 und RX7000 zum Markt geschafft haben und gut verfügbar waren. Viele andere sind damit gut zufrieden.
 
Alles was darüber hinaus geht, ist einfach nur aus Lust an der Freude.
Ja es sieht besser aus, aber ist eigentlich sehr unwirtschaftlich.
Und das sollte man wissen, wenn man PCGH-Benchmarks konsumiert. Denn das sagt Raff eigentlich bei jeder Gelegenheit: Wir testen in sehr lastigen Szenarien, ihr könnt im übrigen Spiel also durchaus höhere Zahlen erwarten, seit aber nach der Lektüre davor gefeit, wenn es im Spiel dazu mal zur Sache geht. Schönwetter-Benchmarks könnt ihr euch ja bei Youtube-"Tests" anschauen ;)
 
Gefloppt? Wo? Nur, weil das Team keine Abermillionen in Werbung und Marketing steckt? Raff hat es schon gezockt und der ist begeistert. Ich hatte noch keine Zeit gehabt bis jetzt. Beim Anspielen für die Benchmarks hat es aber Lust auf mehr gemacht.

Kommt mal aus eurer Bubble raus, wo alles nur geil ist, wenn dafür monatelang geworben und ein Hype erzeugt wurde. Dann entdeckt ihr die echten Perlen ;)

Anhang anzeigen 1437127
Also wenn von über 100 Lets Play Kanälen genau 0 dieses Spiel spielen kann man schon sagen das es ein Flop ist. Das es Raff gefällt ist ja OK. Aber trotzdem wird es noch zu keinen Hit.
 
Ja, wie gesagt, der Release-Zeitpunkt war maximal schlecht. Die Leute waren in der Zeit noch in Akt 1 von BG3 und als dann Starfield kam, sind alle rübergerutscht. Was dazwischen vorgefallen ist, weiß einfach niemand. :ka:
Ansonsten sollte man die Qualität eines Titels nicht daran bemessen, wie viele Leute das bei Youtube spielen. Mir ist das etwa völlig egal, was die da bei Twitch und Co. für einen Unsinn abziehen, ich zocke, worauf ich Bock hab und was mir Spaß macht. Immortals wartet derzeit auf dem Pile of Shame.
 
Der 4070 und der 3080 fehlen da schon die entscheidenen FPS. Also ja, ich persönlich sehe eine 4070 und eine 3080 eher bei 1080p und eine 4070ti eher bei 1440p.
Ich bezog mich eher auf Rasterleistung - wenn die Features ausgefahren werden haben die neuen Karten natürlich nen klaren Vorteil. Dafür muss man halt ordentlich draufzahlen. Oft reichen 2-3 Settings runter auf High und ich habe dieselben fps wie eine TI auf Ultra, als Beispiel. Ich finde upgraden nichtmal " schlimm", überlege jetzt schon manchmal, ob es dann Richtung Intel geht oder ein x3d wird etc. Aber erstmal muss die Gaming Industrie abliefern und mich auch überzeugen, ob es sich überhaupt lohnt :-)
 
Ich bezog mich eher auf Rasterleistung - wenn die Features ausgefahren werden haben die neuen Karten natürlich nen klaren Vorteil. Dafür muss man halt ordentlich draufzahlen. Oft reichen 2-3 Settings runter auf High und ich habe dieselben fps wie eine TI auf Ultra, als Beispiel. Ich finde upgraden nichtmal " schlimm", überlege jetzt schon manchmal, ob es dann Richtung Intel geht oder ein x3d wird etc. Aber erstmal muss die Gaming Industrie abliefern und mich auch überzeugen, ob es sich überhaupt lohnt :-)
Da bei mir das Basteln oft auch im Vordergrund steht, überlege ich immer was ich ändern kann.
Rasterleistung isoliert interessiert mich nicht die Bohne. Ich meine wir haben 2023 und ich will RT.

Wie gesagt, wenn es nur um ein Medium/High Mix geht, dann langt auch eine 3080 noch für 4k. Das war immer so und wird immer so bleiben.

Da ich nicht auf ineffiziente Grütze stehe, ist es bei mir auch nur ein 13400F geworden, mit zusätzlichem Undervolting und DDR5 6000 CL30. Wobei ich da noch an die Subtimings ran will. Der Ram hat dem 13400f schon extrem Beine gemacht.

Bei Intel gibt es nur noch Mehr Leistung für deutlich mehr Watt ;). Den wechsel ich dann zu Meteor Lake vermutlich.

Alternativ AM5, aber da sehe ich nicht den Vorteil gegenüber einem nicht- X3d, sofern man optimiert. Das lohnt wieder nicht. Out of the Box ist ein anderes Thema. ;)
 
Dolby Atmos/ DTS:X sowie Dualsense-Unterstützung? Immer diese Grafik-Peter...... Ich will ein Erlebnis, Grafik allein ist kein Garant dafür.
Das Erste, was man hier sieht, ist ein Bild vom Grafik-Menü. Das Erste, was ich mache, wenn ich ein Spiel zum ersten Mal starte, Sound/Audio.
Kann ja sein, dass Peter mit seiner RTX 4090 tolle Grafiken bekommt, aber bestimmt nicht auf seinem 120€ Discounter Monitor und vom Sound brauchen wir erst gar nicht sprechen, wenn er da mit seinem Gaming-Bluetooth Headset davor sitzt.

Es gibt hier Menschen, die auch Ansprüche haben. Diese Grafik-Bevorzugung muss mal dringend von der Strecke driften.
 
Alles was darüber hinaus geht, ist einfach nur aus Lust an der Freude.
Ja es sieht besser aus, aber ist eigentlich sehr unwirtschaftlich.
In der Tat.
Habe mein System Frühjahr 2021 gebaut (5900x, 6700XT, WQHD res.), aber mache mir schon Gedanken, ob ein Upgrade auf 4070/7800XT oder sogar 4070TI/7900XT/X sinnvoll wäre. Rational ist das ja nicht wirklich, 50% Mehrleistung in den Tabellen sagen aber das Gegenteil :D
 
In der Tat.
Habe mein System Frühjahr 2021 gebaut (5900x, 6700XT, WQHD res.), aber mache mir schon Gedanken, ob ein Upgrade auf 4070/7800XT oder sogar 4070TI/7900XT/X sinnvoll wäre. Rational ist das ja nicht wirklich, 50% Mehrleistung in den Tabellen sagen aber das Gegenteil :D
Ein ungleicher Vergleich ;)
Nimm ein besser passendes Beispiel.

Gamer X hat sich zu der Zeit eine RTX3090 gekauft, für seinen 4k Monitor gekauft.

Für eben diesen lohnt es sich, vom otpsichen Unterschied her nicht, eine 4090 zu kaufen. Klingt bescheuert, ist aber eigentlich so.

Gibt einige Beiträge die sich um das "Warum muss es immer Ultra sein" drehen.
 
Zurück