News Stalker 2: Debatte um Systemanforderungen eskaliert komplett

Produktivität lässt sich steigern und dadurch Produkte sogar billiger werden das ist im Gegensatz zu Dienstleistung skalierbar daher ist es normal das Technik billiger wird.
Die Preissteigerungen der letzten 6 Jahre kommen von der Gier. Weltereignissen und von falscher Planung.
Das währenddessen die Wirtschaft in ner Rezession kommt wollen viele neoliberale diese nicht Sehen und erkennen ihre eigene situation als Allgemeingültig an.
Also geht es mir gut geht es allen gut.

Aus technischer Sicht könnte man ne high end gpu wie die rtx4090 für knapp 1200€ verkaufen ne entry gpu rtx4060 mit 16gb für 250€
Das ist möglich man müsste nur die vram vom chip bundle trennen die marge auf 70% pro chip senken und den aib 40% marge gönnen.
Gäbe es Konkurrenz würde man so vorgehen daher ist es mehr als schade das intel quasi ein 64bit design entwickelt hat was legacy api emuliert und somit die Treiber Glückssache sind.
Amd indes muss endlich konkurrenzfähig werden erst danach besinnt sich nvidia wieder und man bekommt wieder mehr perf. nach ner technischen Entwicklung zum selben oder geringeren preis.

Die folge ist wie wir diese Situation ändern können ist mit Medien klare ansagen an die Hersteller das es nicht in Ordnung ist diesen preise aufzurufen. Wenn die Kaufkraft nicht da ist.

Das würde ich Spielbezogen reagieren und sogar ne aktuelle Spielbar auf ner 300€ für 1080p gpu einführen und dahingehend die spiele bewerten.
etwa so
1 ich hab nenn Bild 30fps 1080p
2 naja es läuft gut 45fps 1080p
3 läuft geschmeidig 60fps 1080p
4 sieht zwar kacke aus aber es läuft extrem gut 100fps 1080p

Dasselbe mit ner 500€ gpu für 1440p
Natürlich ist das nur zeitbezogen einkommen und preise können sich ändern

Zum Wert des Geldes das ist politisch und muss endlich reguliert werden.
 
@Topic:
Weiß nicht was ich dazu sagen soll. Moderne Spiele brauchen halt Leistung wenn man sie voll aufdreht.
Ich spiele aktuell DA:Veilguard und da kommt die 4090 ohne DLSS auch nicht über 60 fps, im Arlathan Wald mit Wasserfall in der Nähe gar nur 33 FPS in UHD+DLAA

[...]
Was soll der Entwickler machen? Das was damals oft gemacht wurde und völlige random Angaben machen die vorne und hinten nicht stimmen?
Ich stimme dir zu, dass man realistische und keine "Schönwetter" Angaben machen sollte.

Aber:
Eine 4090 ist eine _sehr_ performante Grafikkarte (und die schnellste die es aktuell gibt); ist es denn wirklich ok, dass auch diese nur um die 30 fps schafft?
Eine High-End (oder eher "Enthusiasten-Level" hier) GPU sollte mMn. Kein Problem haben 60 fps zu erreichen, denn das ist doch mind. Das Ziel von PC-Spielern. Und wenn man über 1000€ für eine GPU ausgibt, erwartet man doch auch das auf höchsten oder sehr hohen Einstellungen tun zu können.

Wenn man als Entwickler ein Bonus liefern möchte in Form von "extrem" hohen Einstellungen für zukünftige Hardware, sollte man das auch anders als "Ultra" kennzeichnen (z.b. "Extrem" wie in FH5) und/oder eine Warnung ausgeben, um das klar zu machen (z.b. Crysis Remastered und "Can it run Crysis?"), denn die Erwartung von Spielern die einen Haufen Geld ausgeben, ist alle Spiele bestmöglich erleben zu können, und "Ultra" Settings sind - zurecht oder nicht - allgemein zu einem 'Bedürfnis' geworden.

PS: Boah, die Seite bzw. Das Kommentieren hier macht ja mal gar keinen Spaß auf dem Handy.. musste den Kommentar drei Mal neu anfangen und es ist mir schon mal passiert, dass ich zwei Mal komplett neu schreiben musste..
 
Aber:
Eine 4090 ist eine _sehr_ performante Grafikkarte (und die schnellste die es aktuell gibt); ist es denn wirklich ok, dass auch diese nur um die 30 fps schafft?
*Natives UHD mit DLAA inkl Ultra RT in einem konstruierten Worst Case Szenario.

Das war natürlich etwas kontruiert im sowieso anspruchsvollen Arlathan Wald mit zusätzlichem Wasserfall über den halben Bildschirm.
Normalerweise nutzt man ja eh DLSS Q/B mit FG, dann geht das klar, zumal das wie gesagt konstruiert war. Außerhalb des Arlathan Walds habe ich mit DLSS Q und FG permanent >120 fps (FPS cap auf 120, also keine Ahnung wieviel das wirklich wären)

Eine High-End (oder eher "Enthusiasten-Level" hier) GPU sollte mMn. Kein Problem haben 60 fps zu erreichen, denn das ist doch mind. Das Ziel von PC-Spielern. Und wenn man über 1000€ für eine GPU ausgibt, erwartet man doch auch das auf höchsten oder sehr hohen Einstellungen tun zu können.
Natürlich, aber gerade bei modernen Spielen mit komplexen Raytracing oder gar Pathtracing reicht es halt nicht für 60 FPS in nativem UHD. Mit letzerem nichtmal ansatzweise. Pathtracing insbesondere sind einfach Technik Showcases, die man eben heute erleben kann wenn man 2000€ aufn Tisch legt oder morgen für 1000€.
Niemand "braucht" das und niemand "muss" das sehen. Es ist einfach wie damals mit dem orginal Crysis. Ein Showcase eben, der nur die Enthusaisten unten den Enthusiasten vernünftig erleben kann

Wenn man als Entwickler ein Bonus liefern möchte in Form von "extrem" hohen Einstellungen für zukünftige Hardware, sollte man das auch anders als "Ultra" kennzeichnen (z.b. "Extrem" wie in FH5) und/oder eine Warnung ausgeben, um das klar zu machen (z.b. Crysis Remastered und "Can it run Crysis?"),
Da stimme ich zu. Die von mir genutzten Settings bei Veilguard sind auch die "Nichtsberührt"-Settings, die über Ultra stehen und tatsächlich erst gepatched wurden.

denn die Erwartung von Spielern die einen Haufen Geld ausgeben, ist alle Spiele bestmöglich erleben zu können, und "Ultra" Settings sind - zurecht oder nicht - allgemein zu einem 'Bedürfnis' geworden.
Ja, das verstehe ich nicht so ganz.
Tatsächlich sind Ultra und Hohe Settings in vielen Titeln nur mit der Lupe zu unterscheiden, so wie der Unterschied von DLAA zu DLSS Q.
Die Leistungskosten von Hoch zu Ultra oder DLSS Q zu DLAA sind aber immens.


PS: Boah, die Seite bzw. Das Kommentieren hier macht ja mal gar keinen Spaß auf dem Handy.. musste den Kommentar drei Mal neu anfangen und es ist mir schon mal passiert, dass ich zwei Mal komplett neu schreiben musste..
Kenn ich, darum warte ich mit antworten/reagieren immer bis ich wieder am PC bin :D
 
*Natives UHD mit DLAA inkl Ultra RT in einem konstruierten Worst Case Szenario.

Das war natürlich etwas kontruiert im sowieso anspruchsvollen Arlathan Wald mit zusätzlichem Wasserfall über den halben Bildschirm.
Normalerweise nutzt man ja eh DLSS Q/B mit FG, dann geht das klar, zumal das wie gesagt konstruiert war. Außerhalb des Arlathan Walds habe ich mit DLSS Q und FG permanent >120 fps (FPS cap auf 120, also keine Ahnung wieviel das wirklich wären)
OK, kenne das Spiel nicht, bzw. weiß nicht wie es performt, und wusste nicht, dass es mit Ultra RT im Worst-Case-Szenario ist.^^
Dann klingt das schon nicht so schlimm.
Natürlich, aber gerade bei modernen Spielen mit komplexen Raytracing oder gar Pathtracing reicht es halt nicht für 60 FPS in nativem UHD. Mit letzerem nichtmal ansatzweise. Pathtracing insbesondere sind einfach Technik Showcases, die man eben heute erleben kann wenn man 2000€ aufn Tisch legt oder morgen für 1000€.
Auf Pathtracing hab ich mich auch gar nicht bezogen, das kann nun keiner heutzutage erwarten, der ein Verständnis hat, was das ist. Und in Cyberpunk wurde es doch auch als "Technology Preview" vermarktet (vllt. Sogar mit Warnung/Hinweisen im Spiel?), also alles gut. Finde ich sogar 'ne tolle Sache. :)
Da stimme ich zu. Die von mir genutzten Settings bei Veilguard sind auch die "Nichtsberührt"-Settings, die über Ultra stehen und tatsächlich erst gepatched wurden.
I see.
Ja, das verstehe ich nicht so ganz.
Tatsächlich sind Ultra und Hohe Settings in vielen Titeln nur mit der Lupe zu unterscheiden, so wie der Unterschied von DLAA zu DLSS Q.
Die Leistungskosten von Hoch zu Ultra oder DLSS Q zu DLAA sind aber immens.
Stimme ich zu. (Abseits von DLSS; da kann ich nicht wirklich kommentieren.. 😅)
Das hab ich auch immer gesagt, dass Ultra Presets oft genug verschwendete Leistung sind und man nicht darauf behaaren muss.. Allgemein lohnt sich mit den Settings etwas zu spielen.
Manchmal macht das Ultra Preset aber durchaus einen Unterschied - z.b. in FH5, wo auf Hoch einfach das SSAO ganz ausgeschalten wird und damit doch ein relativ großer Einschnitt in die Optik passiert. -> mit den Settings spielen. :)

Kenn ich, darum warte ich mit antworten/reagieren immer bis ich wieder am PC bin :D
Schön, dass von jemandem bestätigt zu bekommen. :D Das sollte PCGH wohl fixen, dass der Editor manchmal rumspringt und die Knöpfe unten rechts so toll platziert sind und unerwartet auftauchen.
Normal bin ich auch am PC, ist mir allgemein lieber, aber gerade möcht ich da halt eigtl. nicht. 😅
 
Debatte eskaliert? Wegen ein bisschen Upscaling?

F*cking Tourists. :D


benchmark_stalker_sg1.png
 
Süß das die Leute davon ausgehen das ein Stalker in den ersten 5 Jahren nach Erscheinen überhaupt spielbar sein wird. Die ersten 3 Teile sind bis heute Bugfeste die ausschließlich von Moddern gefixed wurden und weiterhin selbst auf sehr guter Hardware eher miserabel laufen, dafür das sie 20 Jahre alt sind.

Ich freue mich auf Stalker 2....wenn es dann Modder gefixed haben. GSC hat leider immer bewiesen das sie überhaupt keine Ahnung oder Anspruch an ihrem Gewerk haben. Dazu die zig Verschiebungen und Neugründungen des Studios.

Ach und es gilt die übliche Regel: Keine Testversionen im Vorraus?`Schlechtes Zeichen. Es müssten längt Reviews online sein. Das Ding wird übel.
 
Ich hatte das damals
Süß das die Leute davon ausgehen das ein Stalker in den ersten 5 Jahren nach Erscheinen überhaupt spielbar sein wird. Die ersten 3 Teile sind bis heute Bugfeste die ausschließlich von Moddern gefixed wurden und weiterhin selbst auf sehr guter Hardware eher miserabel laufen, dafür das sie 20 Jahre alt sind.

Ich freue mich auf Stalker 2....wenn es dann Modder gefixed haben. GSC hat leider immer bewiesen das sie überhaupt keine Ahnung oder Anspruch an ihrem Gewerk haben. Dazu die zig Verschiebungen und Neugründungen des Studios.

Ach und es gilt die übliche Regel: Keine Testversionen im Vorraus?`Schlechtes Zeichen. Es müssten längt Reviews online sein. Das Ding wird übel.


Vorbestellen sollte man nicht. Denn es ist ein Wunder, dass das Ding überhaupt noch gemacht wurde. Aber zumindest gemessen am Vorgänger: Ich spiele lieber zehn Games von Entwicklern "ohne Anspruch" wie Stalker als auch nur einmal Industrie-Normkäse wie Horizon: Forbidden Brainactivity, Call Of Duty Calls oder God Of Brainrot. Egal, wie bugfrei, performant oder technisch sauber der gemacht ist. Aber ich setze die Prioriäten da was anders. Selbst Nintendo-Games erfordern und fördern heute mehr kognitives Commitment als manches M-Rated Game ausm Westen. Das kann doch nicht wahr sein! In zwanzig Jahren brauchts keine Spionage mehr, um hier bei uns die Läden zu übernehmen.

Selbst der spätestens dritte Witcher bosst mich härter rum als mein Chef auf Arbeit, gibt mir Schritt für Schritt die Lösungen für alle Quests vor. Die ich unter Aufsicht stupide abklappern darf wie eine To-do-Liste. Und das bloß, weil er anscheinend der Meinung ist, dass ich ohne Nanny nicht mal mehr den Zugang zu Triss Merigolds Höschen finde. Soviel zum Thema Spiele-Entspannung, Abenteuer und Eskapismus... das ist programmierter Stumpfsinn. Das ist ein fucking zweiter Job! :D #rantover

Stalker hatte ich übrigens damals nicht arg lange nach Release auf ner Popel-8600GT für 90 Euro gespielt. Nicht auf vollen Details oder mit der damals fordernden dynamischen Beleuchtung voll aufgedreht. Aber es ging.
 
Zuletzt bearbeitet:
Die Preissteigerungen der letzten 6 Jahre kommen von der Gier. Weltereignissen und von falscher Planung.
Die Möglichkeit, dass die Technik exponentiell aufwendiger wird und sowohl die Entwicklungskosten als auch die Produktionskosten überproportional steigen, je näher man an das Limit des technisch Machbaren kommt, die Idee kommt Dir nicht?

Dass es keinen Hersteller gibt, auch nicht Intel und keiner aus China, der es fertig bringt, Consumer Gaming HW zu einem massiv günstigeren Preis anzubieten, obwohl das eine Goldgrube wäre - wenn man es denn gewinnbringend schaffen könnte - ist doch bereits Aussage genug.
Andererseits, so kann ich mir gut vorstellen, werden die Preise sicher auch ins Verhältnis zu Entwicklungen von (eigenem) Einkommen und Ausgaben gesetzt und diese Veränderung als Ganzes von Leuten entsprechend kritisiert.
Es steht außer Zweifel, dass die Preise der Gamer PC Hardware in der Summe in den letzten 10 Jahren stärker gestiegen sind, als der Verbraucherindex. Aber nicht wesentlich mehr.

Man sollte halt auch akzeptieren, dass der Aufwand, der für die Grafik betrieben wird, im Vergleich zu früher enorm gestiegen ist und gleichzeitig der gefühlte optische Gewinn immer mehr abnimmt. Die Regel des immer geringer werdender Gewinn bei immer größeren Kosten je mehr man sich der Perfektion oder des technisch Machbaren annähert.

Man muss ja nicht mitmachen, wenn man das nicht wll. Was Raff und Dave letztlich aussagen ist doch, dass man auch mit PC HW unter 1000€ (für den gesamten PC wohlgemerkt) immer noch gut und auch moderne Spiele spielen kann. Mit reduzierten Settings freilich, aber immer noch um Welten besser und schöner als vor 10 Jahren.

Womit viele Menschen nicht klar kommen, ist dass es die Möglichkeit gibt, ein vielfaches auszugeben und die Settings in schwindelerregende Höhen zu bringen, da man sich selbst dabei aber ausgeschlossen fühlt.

Das ist Menschlich, aber nicht hilfreich. Ich kann und will mir keinen Porsche leisten, aber ich geh deswegen ja auch nicht in den Foren jammern deswegen.
 
Zuletzt bearbeitet:
Ich versuche mal das zusammenzufassen und den Bogen zusammenzuführen:
Es gibt die ...
  • Hardwareanforderungen von Spieleengines (bspw. UE5)
  • Spieleentwicklungen auf Basis dieser Spieleengines seitens der Spieleentwickler*innen (bspw. Stalker 2), Verhältnis Grafikdarstellung zu Hardwarevoraussetzungen
  • Ungleichzeitigkeiten von Spielegrafik- und Hardwareweiterentwicklungen
  • Hardcoded Features in Hardware (was zu Ausschluss älterer Hardware führt)
  • Herstellungskosten von Hardware (zum einen Kostensteigerungen durch neue Technologieanforderungen, Marktengpässe(-Monopolisierungstendenzen?) bei "Vor"produzenten wie TSMC)
  • Verkaufspreise und -politik der Hardware-Entwickler*innen und -Anbieter*innen (AMD, Intel, Nvidia ...) ((un)eigentlich kommen als "Sahnehäubchen" noch die "netten" "Scalper" dazu, die Preise weiter erhöhen)
=> neue Spieleengines, neue Spiele führen zu neuem Hardwarebedarf zu entsprechenden Kosten

Demgegenüber gibt es die Spieler*innen und Konsument*innen, die ...
  • unterschiedliche (Grafik)Ansprüche haben, aber zumindest als Minimalanspruch ein flüssiges Spielerlebnis ohne "Grafikmatsch" haben dürften
  • jeweils Einkommens- (Reallohnentwicklung + "Lebensschicksäle") und ...
  • allgemeinen Ausgabenentwicklungen (u.a. Inflation) unterworfen sind.
=> wer will bzw. kann denn noch welche Upgradekosten aufbringen, um welche Spiele zu zocken?

Insbesondere bei letzterem fragt sich, wer als Forist*in was beim Lesen und Schreiben im Hinterkopf hat. Da sich die allgemeine finanzielle Lage (gesellschaftlich betrachtet) verschlechtert hat, (sicher) auch Community-Mitglieder betroffen sind (bzw. es sie perspektivisch potenziell betreffen kann), gibt es offenbar entsprechenden Diskussionsbedarf und Anforderungen an sensiblen Umgang in Diskussionen. Manches wurde ja auch zwischenzeitlich geklärt. Zum einen mag es darum gehen, dass es in der Natur der Sache liegt, dass neue Spiele auf längere Sicht hin neue Hardware bedingen. Es fragt sich aber auf welche Zeitspanne bezogen und zu welchem Preis. Diesbezüglich mag es unterschiedliche Einschätzungen geben und eine Kontroverse sich darum entzünden. Es mag aus der Mücke scheinbar einen Elefanten machen, aber ich sehe in dieser Debatte um Stalker 2 und die Hardwareanforderungen auch die Diskussion verknüpft, wer denn noch zu welchen Bedingungen zocken und an der Community teilhaben kann.

@Mods Ich hoffe, ich konnte die Zusammenhänge deutlich machen und hoffe, dass dieser Kommentar von mir von Euch als konstruktiv und zugehörig zu diesem Thread eingeordnet wird. Vielleicht kann mein Kommentar auch in Teilen ein bisschen mehr Erkenntnis darüber bringen, warum die Diskussion bezüglich Stalker 2 eskaliert ist ...
 
Zuletzt bearbeitet:
Habe ich eigentlich irgendwie vom Existenzminimum gesprochen (oder Raff)? Jemand, der gerade genug Geld hat, dass er überleben kann, hat selbstverständlich keine 500-600 Euro für eine neue Grafikkarte übrig. Aber um diese Menschen geht es nicht. Meine Kritik war eine erweiterte Kritik jenes Posts, auf die ich angesprochen wurde. Und da ging es jeweils um einen Spieler, der scheinbar von einer GTX 970 und einer HDD nicht aufrüsten kann (will?), aber in Erwartung stellt, dass ein modernes Unreal Engine 5 Spiel dann flüssig zu laufen hat. Das passt einfach nicht zusammen. Wer von einer 970 kommt, muss ja nicht gleich eine 7900 GRE kaufen, es tut auch eine 3060 für 200 Euro gebraucht, auch ein riesengroßes Upgrade.
Ich geb dir schon irgendwo Recht, aber ich finde es auch Schade, wie die Mittelklasse scheinbar ignoriert wird.
Für etwas über 300€ gab es damals eine GTX 970; die drittschnellste Karte auf dem Markt, womit man ohne wirkliche Kompromisse zocken konnte (1080p Ultra, 60 fps).
Und auch die 60er Serien bis zur 1060 für <= 250€, womit man ebenfalls in 1080p Ultra oder mit dem zweithöchsten Preset zocken konnte.
Was ist mit diesem Markt? Gibt's nicht mehr. Vor allem denke man an 750 Ti und 1050 Ti..
Und was bekommt man jetzt für ~300€? Eine RTX 4060, die ihrem 60er Namen aber eigtl. Nicht gerecht wird und gefühlt Hardwaremüll ist für heute (kaum Mehrleistung zur 3060, 8 GiB VRAM, PCIe x8). :/

Dann kommt noch eine mentale Hürde dazu, dass man seine Budgets deutlich nach oben korrigieren muss, um ähnlich gute Erlebnisse mit der Hardware zu haben.
Ich hatte damals ein Budget von ~300€ für die GPU, für das nächste Upgrade 2019/20 hab ich es auf ~400€ angehoben und jetzt muss ich es wohl auf mind. 500€ anheben, um ordentliche Hardware (für 1440p) mit guter Preis/Leistung zu bekommen.
Wenn man so selten wie ich zockt, kann man doch aber auch nicht mehr als 500€ rechtfertigen, auch wenn ich das Geld eigentlich hätte - das fühlt sich einfach nicht korrekt an..
Und hier der andere Beitrag:
Anhang anzeigen 1475017

Ich hab mir das also nicht an den Haaren herbeigezogen.
Der ist aber aus Brasilien und ich kenne die Situation von mind. Zwei Leuten aus Brasilien (aber nicht persönlich) und da sieht es um die Hardwarepreise nicht so toll aus und steht vor allem in keinem Verhältnis zum Einkommen.. Da ist es schon verständlicher, dass dieser noch an seiner GTX 970 hängt. Auch wenn die nun wirklich alt ist und ich dir zustimme, dass die aufgerüstet werden _muss_. :ugly:
 
Was ist mit diesem Markt? Gibt's nicht mehr. Vor allem denke man an 750 Ti und 1050 Ti..
Und was bekommt man jetzt für ~300€? Eine RTX 4060, die ihrem 60er Namen aber eigtl. Nicht gerecht wird und gefühlt Hardwaremüll ist für heute (kaum Mehrleistung zur 3060, 8 GiB VRAM, PCIe x8). :/

Dann kommt noch eine mentale Hürde dazu, dass man seine Budgets deutlich nach oben korrigieren muss, um ähnlich gute Erlebnisse mit der Hardware zu haben.
Ich hatte damals ein Budget von ~300€ für die GPU, für das nächste Upgrade 2019/20 hab ich es auf ~400€ angehoben und jetzt muss ich es wohl auf mind. 500€ anheben, um ordentliche Hardware (für 1440p) mit guter Preis/Leistung zu bekommen.
Wenn man so selten wie ich zockt, kann man doch aber auch nicht mehr als 500€ rechtfertigen, auch wenn ich das Geld eigentlich hätte - das fühlt sich einfach nicht korrekt an..

Hey, ich sitze trotz frischerem Unterbau auch noch auf ner ollen GPU, genau deshalb. Fliegt jetzt zu KCD II raus, bzw. wenn die neuen Karten raus sind. Aber falls es dich beruhigt, demnächst gibt es mit Boliden wie Ryzen 9950X3D samt RTX 5090 und der PS5 / Pro als Basis erst mal solch eine gigantische Kluft an Hardware, dass nur noch sehr, sehr wenige Gaming-PCs überhaupt ausgereizt werden, da nicht wirtschaftlich. Klar, PC ist nach oben offen, vermutlich kann man selbst mit Doom 2 in spätestens 64K-Auflösung und Mods drauf noch Skynet bricken. Aber ist jetzt nicht so, als würde die Mehrzahl der Games überhaupt Hammer-Hardware brauchen (Geheimtipp). Diese Games laufen auch nicht weg. Und wenn dann mal eins dabei ist, das auf der Möhre streikt -- wer heute wartet, gewinnt (leider) immer: Patches, Pugs und Preisreduzierung. ;)
 
Selbst wenn das Game so hohe Anforderungen hat, dass sie current und vielleicht sogar next Gen GPUs an den Limit bringen...

Ich erinnere mich an Zeiten, wo so etwas der Standard war, so dass man mit viel Glück erst mit der nächsten GPU solche hardwarelastigen Games Max Out spielen konnte.

Heute erhalten Studios fast schon Morddrohungen dafür... :schief:
 
Selbst wenn das Game so hohe Anforderungen hat, dass sie current und vielleicht sogar next Gen GPUs an den Limit bringen...

Ich erinnere mich an Zeiten, wo so etwas der Standard war, so dass man mit viel Glück erst mit der nächsten GPU solche hardwarelastigen Games Max Out spielen konnte.

Heute erhalten Studios fast schon Morddrohungen dafür... :schief:

Früher gab es eine einzige Anforderung: "Läufts bei mir?" Auch NextGen genannt: Hardware, die nicht bloß gekitzelt, sondern bis an die Kotzgrenze gebracht wurde. Kann sich aber kein Spielehersteller mehr leisten. Weils die Zielgruppe so radikal zusammenkürzt wie bei der Ballermann-Schlagerband, die plötzlich mitten im Niveaulimbo auf Progrock macht.

Entsprechend kriegen heute Leute einen Shitstormanfall, wenn die RTX 4090 auch nur eine Millisekunde den Flachköpper unter 120fps hinlegt. (Nvidia gefällt das) :D
 
Kann man ja drüber diskutieren ob die Spieleindustrie nicht in einer Planwirtschaft gemeinsam Sache macht mit den Hardwareherstellern. Oder man kann diskutieren ob die Engine schlecht optimiert sind.

Fakt ist aber, so lange es Käufer gibt die dafür die Hardware anschaffen, anstatt das Spiel liegen zu lassen wird das auch so weiter funktionieren. Willkommen im Kapitalismus, willkommen auf dem Planet Erde.

Scheiß drauf, der neue Landwirtschaftssimulator ist auch draußen. Und falls der auch nicht gescheit läuft hier ein kleiner tweak. Gebt bei Google in die Suche "Landwirtschaftliches Lohnunternehmen in der Nähe" ein. Setzt euch aufs Rad, fahrt hin, bewerbt euch um einen Ausbildungsplatz oder eine freie Stelle. Und genießt dann die geilste Grafik ever. Fotorealismus pur...

Was Stalker anbelangt geht das auch. Meldet euch bei Selenskyj zum Wehrdienst. Ist auch Fett, super special effects, mega Sound, tolle Emotionen mit Langzeitwirkung!

Könnt mir ja ne Rückmeldung geben ob ihr das Game dann in real durchspielen werdet, oder doch mit der alten Grafikkarte und kleineren settings. 😂😁
 
Zuletzt bearbeitet:
Diese Unterhaltung läuft jedes mal gleich ab.

Es wird behauptet AMD und rt schließt sich auch. Ich weise darauf hin, dass AMD Karten im Schnitt mit der rt Leistung 2 Modelle tiefer konkurrieren.
Hängt halt am Parcours. Schau mal in den aktuelle RT Parcours von PCGH rein. Da sieht man schnell warum die meisten denken, das AMD vielleicht auf RTX4000 einigermaßen aufholt, nicht aber mit RTX5000 konkurrieren wird.


(Bei einigen aktuellen ue5 Titeln, welche auf Software rt setzen soger oft gleichauf) Dann heißt es aber es gibt ja diese 2,3 pathtracing Titel und ganz bald gibt es nur noch pathtracing und dann wird es ganz düster für AMD.
Bei den letzten Tests die ich so gesehen habe. Wenn RT an Bord, dann ist die 4070ti super entweder etwa gleich schnell zur 7900XTX, oder gar schneller.

Wenn kein RT an Bord, dann das gleiche mit der 4080 super.

Dazu kommt das auch jedes aktuelle Game das intensiver ist, mit RT, findet man auch im PCGH Parcours da läuft die 4070ti super der 7900XTX schon uneinholbar davon.

Und in Extremfällen, die zum Glück (je nach Blickwinkel) bisher selten sind, da ist Nvidia dann mehr als doppelt so schnell.

Ich erwarte für eine 8800XT, das diese bei 275W etwa das leistet was eine 4070ti super leistet, nur in RT weiterhin etwas hinterher ist, nur nicht mehr so extrem wie bisher.
Keine Ahnung was die Zukunft bringt. Ich beurteile bei sowas den ist Zustand.
Dann schau dir die aktuellen Tests an... Es ist nicht zu erwarten das eine 8800XT eine 4070ti super in RT Spielen schlagen wird (außer in Ausnahmen vielleicht, vereinzelt).

Da wird eine 5070, so denke ich eher noch etwas drauf legen bei RT und bei Raster etwas die Federn lassen. Also eigentlich dürfte es sich wiederholen.



AMD mehr Raster und Speicher, Nvidia mehr Effizienz und RT (VR), noch Bildqualität DLSS > FSR.
Seit einigen Jahren explodieren die Preise für Grafikkarten. Seit der Nvidia 20er-Generation gibt es zum ähnlichen Preis ja immer nur ein Sidegrade von der Leistung her. Und das scheint sich ja wohl auch in nächster Zeit nicht zu ändern.

Da verwundert es doch nicht, dass der Großteil der Casual-Gamer noch immer mit ewig alten Grafikkarten zocken oder mit Low-End Karten der aktuellen Generation.

Da ist es dann halt um so bitterer, wenn die Entwickler ihre Spiele hauptsächlich für >2000 Euro Grafikkarten optimieren.



Doch, würde ich wollen!

UE4 in nativen 4K, hohen Settings und 120FPS sieht oft schon deutlich besser aus UE5 in FHD, mittleren Details mit Upscaling und trotzdem nur 60 FPS.

Ja, die UE5 kann deutlich hübscher sein als die UE4. Nach "Unten" hin skaliert die UE5 aber extrem schlecht, meiner Meinung nach!




Schau dir die (nun ja korrigierte) Steam Hardware & Software Survey an. Die erste Grafikkarte, mit der man Sinnvoll in Raytracing nutzen kann, ist die RTX 4070 auf Platz 10. In den Top 20. tauchen dann noch mal die RTX 3080 und die 4070 SUPER auf. Das sind grad mal rund 6% (von 55% der Top 20). Und wie viele Spielen dann doch lieber mit 120 FPS ohne RT, als mit RT aber nur noch ~60FPS?

Raytracing ist daher, meiner Meinung nach, noch lange nicht in der Masse angekommen. Und so lange würde ich es auch noch als "Nische" bezeichnen.
Steam gibt ja nur einen Ausblick, da sind doch auch viele völlig veraltete Systeme dabei. Das wäre jetzt nicht so mein Maß.

Ich würde eher schauen was halbwegs aktuell ist, wer aktuelle Spiele spielen kann.


Hier ist die von dir genannte Vertretung, mit 3080, 4070 und 4070 super erstens schon sehr deutlich und zweitens auch durchaus gut brauchbar.

Ich denke es wird schon einige geben die RT nutzen bei entsprechender Hardware. Nicht weniger, als die die bei 120Fps spielen wollen.
 
Selbst wenn das Game so hohe Anforderungen hat, dass sie current und vielleicht sogar next Gen GPUs an den Limit bringen...
Daran erinnere ich mich auch nur zu gut.
Ich erinnere mich an Zeiten, wo so etwas der Standard war, so dass man mit viel Glück erst mit der nächsten GPU solche hardwarelastigen Games Max Out spielen konnte.

Heute erhalten Studios fast schon Morddrohungen dafür... :schief:
Sofern die Optik passt, oder es entsprechend weit herunter skaliert werden kann sehe ich auch kaum ein Problem.
 
Zurück