News Forspoken: Ausgerechnet Radeon-Karten der Polaris-Reihe werden nicht mehr unterstützt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Forspoken: Ausgerechnet Radeon-Karten der Polaris-Reihe werden nicht mehr unterstützt

Trotz einer engen Zusammenarbeit mit AMD soll Forspoken keine Polaris-Grafikkarten mehr unterstützen. Diese kamen 2016 auf den Markt und waren preislich anders als heutige Grafikkarten für die breite Masse an Spielern sehr interessant. Lesen Sie daher im Folgenden, warum das der Fall ist und welche Lösung für Polaris-Besitzer infrage kommt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Forspoken: Ausgerechnet Radeon-Karten der Polaris-Reihe werden nicht mehr unterstützt
 
Naja, ist ja nicht das erste Mal, dass eine "alte" Grafikkarte aufgrund fehlender Features ein Spiel nicht unterstützt.
Schön wäre allerdings eine entsprechende Abwärtskompatibilität mot dem verzicht aif Raytracing und Co.
Aber dort kann man wirklich die "Faulheit" der Entwickler bei der Optimierung sehen.
 
:-]...mit meinem setup reicht es trotzdem für 70 fps in UHD ultra in der Demo... Werde es trotzdem nicht kaufen. Die Tussy ist mir zu nervig!:lol:


 
Zuletzt bearbeitet:
Schuld der Entwickler. Die GPUs mit den ihren Hardware Spezifikationen sind schon lange auf dem Markt. Hier wären die Devs in der Pflicht gewesen für Kompatibilität zur sorgen.
 
Alle next gen titel die für PS5 und xbox S X erscheinen werden ähnlichen hardwarehunger vorweisen.

Eine 3080 oder 6900xt haben etwa die 2,5 fache Leistung einer PS5, von 30 fps high Details werden dann 60 fps ultra deteils ca.
Und man brauch eine 4090 wenn man über die 100 kommen will.

Von daher ist alles ok bis das die PC Hardware viel zu teuer ist für die gebotene Leistung
 
Bitter für Polaris Besitzer, aber passiert wenn die Konsolen ein höheres Featureset unterstützen.

Irgendwann muss man halt alte Zöpfe abschneiden, und das ständige Suchen für Workarounds um Spiele auf mehr oder weniger alten Grafikkarten irgendwie zum laufen zu bekommen hindert halt auch technischen Fortschritt. Von daher finde ich das eigentlich gar nicht so schlecht.

Ob in diesem Fall die Grafikqualität des Spiels das benötigte Featureset rechtfertigt steht auf einem anderen Blatt.
 
Naja, ist ja nicht das erste Mal, dass eine "alte" Grafikkarte aufgrund fehlender Features ein Spiel nicht unterstützt.
Schön wäre allerdings eine entsprechende Abwärtskompatibilität mot dem verzicht aif Raytracing und Co.
... mal anders herum gefragt: warum sollen die mit aktueller Hardware auf Features verzichten nur weil es für manche auch noch auf den alten Gurken spielbar sein soll ??
Alte Graka ---> alte Spiele :(
(relativ) neue Graka ---> neue Spiele :)
 
Das Spiel nutzt Conservative Rasterization für eine Handvoll Pipelines, was tatsächlich erst ab Vega unterstützt wird.

Ist jetzt halt die Frage, ob ein Fallback wirklich so aufwändig gewesen wäre - viele Use Cases für dieses Feature lassen sich recht trivial und gut genug mit MSAA abdecken (und nein, das bedeutet nicht, dass das gesamte Spiel mit MSAA gerendert werden muss), ggf. auch mit ein paar Shader-Tricks..

Andererseits kann man AMD auch durchaus vorwerfen, zwei Generationen lang geschlafen zu haben, was Rasterizer-Features angeht, Nvidia konnte das halt schon drei Jahre eher.
 
Andererseits kann man AMD auch durchaus vorwerfen, zwei Generationen lang geschlafen zu haben, was Rasterizer-Features angeht, Nvidia konnte das halt schon drei Jahre eher.
Es war oft genug andersrum, so dass AMD bzw. noch ATI mit neuen Features kam, die dann nie genutzt wurden, weil Nvidia sie nicht unterstützte.

Do wurden auch Spiele von DX 10.1 auf DX 10 runter gepatcht, weil Nvidia das Featureset nicht konnte...
10.1 ist dadurch komplett in der Versenkung verschwunden.
 
Zuletzt bearbeitet:
1080p bei niedrigen Details, angepasst an DLSS 2.0 Ultra-Performance scheint mir den besten Kompromiss auf Bildqualität, Hardwareanforderungen und Bildern pro Sekunde zu bieten. 4GB VRAM sind nicht einmal das Problem und mit DLSS gibt es den benötigten Schub in Sachen Rasterperformance, obwohl es ja keiner nativen Auflösung entspricht. Vorteil: Keine Einbußen bei der Effizienz. Später mehr dazu.
Ich empfehle wie immer, eine 4090 zu kaufen. Man kann ja noch die 480/580 verkaufen, dann rechnet sich Das!
Gruß Yojinbo, Der keine Ruckelspiele spielt!
Hau rein, Keule! :D
 
Ich dachte eigentlich immerhätte das höhere DX 12 Level gehabt, so war es jedenfalls bei der GTX 670 VS HD 7950. Wieder etwas gelernt.

Ich zweifle dass man sich extra eine graka für forsaken kaufen wird

Es ist bei vielen einfach ein Punkt, der das ganze zum kippen bringen kann. Die Spiele liefen schon länger nicht mehr optimal, Details und Auflösung mußten heruntergedreht werden. Nun läuft das erste Spiel nicht mehr. Das kann sehr wohl den Anstoß zum Neukauf geben.

Bei mir wären das Far Cry, Anno oder die PB Spiele. (wobei die alle auf GeForce Now laufen [allerdings kann man Anno da nicht modden])

*Autsch*
Schon mal was von Optionen gehört?

Der Punkt ist, dass man irgendwann alle begrenzt, wenn man den uralten Käse noch mitschleppen muß. Bestimmte Dinge kann man nicht so einfach aus und an stellen, da müssen dann alle verzichten.

Gilt nur für Software :bier:

Nein, es galt für die HD 7900er und die R9 290(X) sowie 390(X).

Die hatten 3, 4 und 8GB VRAM, statt 2,3 und 4GB bei den Nvidiagegenstücken. Deshalb sind sie erheblich besser gealtert. Die Liste an Spiele, die ich mit der HD 7950 statt der GTX 670 (besser) hätte spielen können ist nicht gerade kurz. Bei der GTX 890Ti gegen die Fury X ist es anders herum, da machen die 6GB mit den 4GB der Fury X kurzen Prozess. (dass die Treiberentwicklung eingestellt wurde hilft auch nicht)
 
Zuletzt bearbeitet:
Zurück