Natürlich für maximale Qualität wird man mehr brauchen, als die NV-Karten unterhalb der 4090 haben.bei Ultra oder EPIC
... kann ich mir net vorstellen, ... für die Zukunft
Konsolenstyle ist vllt. High
Doof ist aber natürlich das sie nicht mal den 379mm² kleinen, 76SM schweren AD103 der RTX 4080 voll unter Kontrolle haben.
Ich kann mir beim besten Willen nicht vorstellen dass das so AMDs Ziel war.
Die 4080 hatte zu keinem Zeitpunkt ne höhere Bandbreite.Sollte die Bandbreite zeitnah an Relevanz dazugewinnen, wäre die 4080 die vllt. schnellere Karte (vor allem in RT), dafür würde die 7900 XTX "besser altern".
Schnelligkeit stiegert wahrscheinlich auch die RT Leistung bzw. GDDR6 vs GDDR6X. Das Bandbreitenstats völlig irrelevant sind sollte man nach der Radeon 7 eigenlich gelernt haben.Die 4080 hatte zu keinem Zeitpunkt ne höhere Bandbreite.
Anhang anzeigen 1431580
eigentlich ist die 256bit-4080 sogar hinsichtlich Bandbreite <der 320bit-7900xt@800GB/s
(Was genau die Bandbreite "vor allem in RT" steigern soll, erschliesst sich mir net.)
Die RTX 4090 wird relativ immer besser, je mehr Last man draufschmeißt. Wenn sie also nicht gut aussieht, limitiert die Infrastruktur.Die 4080 ist aus meiner Sicht rein vom Chip her der gelungenste der RTX4000-Generation. Verglichen zu dem Chip ist auch die 4090 eine Luftpumpe. Schade dass sie "nur" 16GB hat.
Vega altert in etwa so gut wie Pascal. Hilfreich ist vor allem der Speicher. Allerdings hält sich Turing dank der modernen Architektur und Features wesentlich besser - etwa in Gestalt der RTX 2080 Ti. Die 2080 und alle anderen 6- und 8-GiB-Modelle kränkeln zunehmend an ihrer Speichermenge.Die Radeon VII hatte nur Pech, das es keine Games+Reviews mit voller 16GB-Vram-Ausnutzung gab/geben durfte.
(weiss net obs bei aktuellen Games anders ausschaut zw. 2080 und R7)
Mit im Vergleich unglaublich wenig Aufwand die selbe Renderleistung erreichen. Und das tut sie außerhalb des RAM-Limits ja auch.Was dann die 3070 als "Vollwertiger Ersatz" sollte , weiss nur der Küchenchef.
Es gab und gibt einen zur 3070 vergleichbar großen Chip. Der nennt sich Navi22, hatte aber selbst als KXT am Ende zu wenig Chancen, so dass wir den unbeschnittenen GA104 nie zu Gesicht bekommen haben.Mehr verschiedene Chips konnte sich AMD damals vermutlich net leisten, denke so ca. 400mm² als extra Chip
wäre möglich gewesen.(weiss net wie hoch die Kosten für ne extra Maske+Design gewesen wären)
Was meinst du mit unbeschnitten?Es gab und gibt einen zur 3070 vergleichbar großen Chip. Der nennt sich Navi22, hatte aber selbst als KXT am Ende zu wenig Chancen, so dass wir den unbeschnittenen GA104 nie zu Gesicht bekommen haben.