AMD Radeon RX 6000: Navi 21 angeblich mit 16 GiB; Navi 22 mit 12 GiB

- 2GHz+
Eher < 2 GHz, siehe unter anderem die Yield-Probleme bei der PS5 mit 2,23 GHz und gerade mal 36 CUs. Die Xbox taktet nicht zum Spaß 400 Mhz niedriger und auch nVidia's Chips sind nicht ohne Grund deutlich unterhalb der 2 GHz bzgl. ihrer offiziellen Boost-Angabe angesetzt.

Bei der Konsole gibt es aber keine Lite Versionen. Da müssen also alle Chips mit den Specs laufen.
Die GPUs lassen sich bei defekten einfach beschneiden oder runtertakten.
 
(...) Nicht nur dass die RTX 2070 Super in 4K +12 % mehr Fps liefert, die Karte liefert auch noch +34 % mehr Fps/Watt).

Wo zieht ihr immer solche Zahlen her?
Techspotzahlen von April diesen Jahres: Mal ist die 5700XT mal die 2070 Super schneller ... in einem 35 Spiele Durchschnitt ist die 2070 Super gerade mal 6% schneller ... und das meiste davon holt sie sich in für Nvidia gesponsorten und optimierten Spielen.

Leider ist da kein Stromverbrauchsvergleich dabei, aber laut Igor:
Typische Gaming Leistungsaufnahme der 2070Super: 228 Watt
Typische Gaming Leistungsaufnahme der 5700XT: 225 Watt

Wo siehst du da bitte 34% mehr Performance/Watt? Das sind vielleicht 4-5% maximal, denn die 2070 Super ist zwar 6% schneller aber braucht auch 1,3% mehr Strom für diese Leistung.
 
Viele werden sowieso dank ihres Unterbaus die 3080 nicht vernünftig ausfahren können, denn selbst ein starker 3950X mit 3200CL14 B Die RAM limitiert teilweise richtig extrem und dies auch in 1440p und sogar auch mal in 4k.
Wenn ich mir da teilweise die Abstände ansehe, zweifele ich sogar an Zen 3^^


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Viele werden sowieso dank ihres Unterbaus die 3080 nicht vernünftig ausfahren können, ...

Ist ja nichts Neues oder gibts hier im Forum auch nur Einen, der ohne Limitierungen spielen kann? :-)

Versteh die Aufregung nicht, jetzt verschiebt sich für einen Moment das Limit für fast alle Gamer von der GPU stärker in Richtung CPU und plötzlich geht hier bei einigen die Welt unter. Nach Jahren im GPU Limit nun einmal andersherum. Ich finds gut, jetzt wissen wir wenigstens das selbst die größten aktuellen CPU's schon wieder überfordert werden und entsprechende Fortschritte, in der nächsten Gen gemacht werden müssen.

Besser als die letzten 10 Jahre im "Stillstand".
 
Klar, nur du musst bedenken, da draußen haben viele einen deutlich schlechteren Unterbau als ein 3950X + 3200CL14 RAM^^
Ist ja keine Aufregung, mache nur darauf aufmerksam wie brutal die Limitierung teilweise zuschlägt
 
Klar, nur du musst bedenken, da draußen haben viele einen deutlich schlechteren Unterbau als ein 3950X + 3200CL14 RAM^^
Ist ja keine Aufregung, mache nur darauf aufmerksam wie brutal die Limitierung teilweise zuschlägt

Ja, aber alle die bis heute im GPU Limit hängen, haben offenbar noch CPU Leistung über. Also wird ein großer Teil der Leute einen Boost erfahren und von Limitierungen gar nichts mitbekommen.

Ob diese Leute auch nur annähernd 100% der möglichen Leistung abrufen können ist ein anderes Thema.

Wenn man den Anteil der 1080ti Nutzer sieht, scheinen die wenigsten ein Problem damit zu haben, eine GPU für noch kommende Unterbauten zu kaufen. Scheitert diesmal eigentlich eher an der blöden Speichermenge.
 
Wenn man den Anteil der 1080ti Nutzer sieht, scheinen die wenigsten ein Problem damit zu haben, eine GPU für noch kommende Unterbauten zu kaufen. Scheitert diesmal eigentlich eher an der blöden Speichermenge.

Ja, allerdings.
Und wenn man bedenkt, dass die 3080 ohne DLSS in Control RT 1440 auch keine 60 FPS auf die Kette kriegt, dann kriegt man halt auch eine neue Betrachtungsweise der Leistung. Mag ja sein, dass die Karte für aktuelle Spiele fast schon zuviel Leistung hat. Aber was ist mit der kommenden (hoffentlich, wir warten ja lange genug) Flut an RT AAA Titeln.
Die will man ja dann auch in ganzer Pracht erleben und nicht mit RT Light. Also ich zumindest wenn ich auf RT upgrade.
 
einfach unglaublich und unfasbar, was man hier und allgemein wieder so lesen muss von diesen naive und totale nv fanboys :-$

man hofft und glaubt oder auch wünscht, das amd mit rdna2 ebenso einen papperlaunch haben wird wie nv.

es wird keinen geben und im november wird jeder einen rdna2 gpu haben, wenn er eine haben möchte für den besten preisleistung kracher aller zeiten !

ansonsten man sieht schon wie stark eigentlich rdna1 mit nur 2560 shader ist, und nur 251mm² gross ist.

aber das big navi die doppelten daten haben wird und 100% die doppelte performance auf die strasse bringen wird,

das wird einfach ignorant bzw naiv ausgeblendet, weil mit alte gcn technik noch verglichen wird und rdna2 ja noch gcn ist und einfach einen flop gewünscht bzw erhofft wird :fresse:

und hört endlich verdammt nochmal auf, mit euren bandbreite diskussion über rdna2 zu diskutieren, den amd hat noch nie ein bandbreiten sorge gehabt !

und wenn der big navi nur mit 256bit kommen sollte, so lasst doch amd das überlassen, wie die das gelöst haben für 4k performance, um nicht im bandbreiten limit zu stossen.

das ist doch sogar sehr clever von amd, das rdna2 ein reiner gamer gpu ist bzw geworden ist, und deshalb so optimiert bzw hergestellt, das weder die grafiker noch miner an rdna2 interessiert werden !!!

um alle pc gamer weltweit glücklich zu machen wie auf der konsole eben !!!

das nenne ich bzw sehe ich als das moderne marketing strategie.

jetzt wisst ihr auch was gemeint ist, mit preisleistung kracher aller zeiten ;-)

den das habe ich auch beim ryzen cpu im vorraus prophezeit mit preisleistung kracher und so wird es auch beim rdna2 eintreten.
 
Zuletzt bearbeitet von einem Moderator:
und hört endlich verdammt nochmal auf, mit euren bandbreite diskussion über rdna2 zu diskutieren, den amd hat noch nie ein bandbreiten sorge gehabt !
Das ist richtig, allerdings hat AMD auch fragwürdige Features angeboten, die nie dasgehalten haben, was versprochen wurde (Intrinsic Shader, HBCC). Von daher bin ich skeptisch.
 
wiegesagt, amd arbeitet mit sony und microsoft und spieleentwickler zusammen, und die werden schon wissen was die aus rdna2 architektur machen werden, für das reiner gamer gpu, und das zählt jetzt !!!

also brauchst du nicht skeptisch zu werden, du sollst nach zukunfts informationen schauen und nicht von der vergangenheit.
 
Zuletzt bearbeitet von einem Moderator:
einfach unglaublich und unfasbar, was man hier und allgemein wieder so lesen muss von diesen naive und totale nv fanboys :-$

man hofft und glaubt oder auch wünscht, das amd mit rdna2 ebenso einen papperlaunch haben wird wie nv.

es wird keinen geben und im november wird jeder einen rdna2 gpu haben, wenn er eine haben möchte für den besten preisleistung kracher aller zeiten !

ansonsten man sieht schon wie stark eigentlich rdna1 mit nur 2560 shader ist, und nur 251mm² gross ist.

aber das big navi die doppelten daten haben wird und 100% die doppelte performance auf die strasse bringen wird,

das wird einfach ignorant bzw naiv ausgeblendet, weil mit alte gcn technik noch verglichen wird und rdna2 ja noch gcn ist und einfach einen flop gewünscht bzw erhofft wird :fresse:

und hört endlich verdammt nochmal auf, mit euren bandbreite diskussion über rdna2 zu diskutieren, den amd hat noch nie ein bandbreiten sorge gehabt !

und wenn der big navi nur mit 256bit kommen sollte, so lasst doch amd das überlassen, wie die das gelöst haben für 4k performance, um nicht im bandbreiten limit zu stossen.

das ist doch sogar sehr clever von amd, das rdna2 ein reiner gamer gpu ist bzw geworden ist, und deshalb so optimiert bzw hergestellt, das weder die grafiker noch miner an rdna2 interessiert werden !!!

um alle pc gamer weltweit glücklich zu machen wie auf der konsole eben !!!

das nenne ich bzw sehe ich als das moderne marketing strategie.

jetzt wisst ihr auch was gemeint ist, mit preisleistung kracher aller zeiten ;-)

den das habe ich auch beim ryzen cpu im vorraus prophezeit mit preisleistung kracher und so wird es auch beim rdna2 eintreten.

Hört Hört, Gecan hat gesprochen, welch Offenbarung. :hail::lol:

Nur so am Rande, liest sich brutal schwer. Nichts für ungut, aber denk mal darüber nach...
 
>> Bspw. Ghost Recon Breakpoint ist diesbezüglich ein regelrechter Alptraum für die RX 5700 XT. Nicht nur dass die RTX 2070 Super in 4K +12 % mehr Fps liefert, die Karte liefert auch noch +34 % mehr Fps/Watt.

Wo zieht ihr immer solche Zahlen her? [...]

Also noch einmal langsam zum Mitschreiben falls der eigene Bias einfach überwältigend stark ist ... ;-)

Ghost Recon Breakpoint, 4K, Vulkan, Ultra Fidelity FX off
(dieses "Ultra" scheint aber nicht ausnahmslos jeden Slider auf Maximum zu setzen, denn andere Tests zeigen in diesem Fall gar noch niedrigere Bildrate an)

gemittelte Bildrate
o RX 5700 XT : 48,5 Fps
o RTX 2070 Super : 54,3 Fps (+12,0 %)
gemittelter GPU-Verbrauch in diesem konkreten Titel
o RX 5700 XT : 245,3 W
o RTX 2070 Super : 204,7 W (-16,6 %)
Perf/Watt (auf TBP)
o RX 5700 XT : 0,1977 Fps/Watt
o RTX 2070 Super : 0,2653 Fps/Watt (+34,2 %)
oder auch umgekehrt
o RX 5700 XT : 5,0577 Watt/Fps
o RTX 2070 Super : 3,770 Watt/Fps (-25,5 %)

Erfahrungsgemäß liegt es in derart gelagerten Fällen meist weniger an fehlenden Rechenkünsten sondern eher am Confirmation Bias. ;-)

Darüber hinaus der Vollständigkeit halber der Navi-Vergleich gegen die RTX 3080 FE:
o Fps : 103,0 Fps (+112,4 %)
o Watt [TBP] : 323,8 (+32,0 %)
o Fps/Watt : 0,3181 Fps/Watt (+60,9 %)
o Watt/Fps : 3,1447 Watt/Fps (-37,8 %)

Der Vollständigkeit halber gilt es zu berücksichtigen, dass die RX 5700 XT (verwende ich das üblich Jargon einiger besonderer Gesellen) von AMD auf maximale Leistung "geprügelt" wurde und damit vergleichsweise ineffizient ist. Die kleinere RX 5700 steht da schon deutlich besser da (0,2560 Fps/Watt), bietet aber auch nur eine geringere, absolute Leistung.

 
Zuletzt bearbeitet:
10GB der RTX Karten reichen locker, seht hier zB wv VRAM man @ 4k Ultra haben sollte^^
Denke in Zukunft wird der VRAM Verbrauch natürlich stark sinken :fresse:
 
Bin schon ganz heiß auf eine neue Platform mit PCIe 4.0 und M.2, dazu eine CPU mit 10+ Kernen
Auch bei mir steht (eeendlich) nach über 7 Jahren ein neuer Unterbau an. So ein 4700/4900X samt 32-64GB RAM und ner M.2 sind bei mir auf jeden Fall fest eingeplant. Die GTX 1080 muss/darf erstmal weiterschuften, ich bin auf jeden Fall gespannt auf Big Navi.

Allerdings erwarte ich keine extreme Überpower wie so manche hier. Aber die RTX 3080 in Sichtweite wär schon schön, dazu ein ruhiges/ und vor allem effizienteres (Custom)-Design wie Ampere und ich bin überzeugt. Die Kohle liegt schon längstens bereit...

Gruß
 
10GB der RTX Karten reichen locker, seht hier zB wv VRAM man @ 4k Ultra haben sollte^^
Denke in Zukunft wird der VRAM Verbrauch natürlich stark sinken :fresse:
DLSS senkt den VRAM-Bedarf massiv.
Watch Dogs kommt mit DLSS.
Haste das bedacht?

Natürlich nicht, denn bei AMD gibt‘s kein DLSS und damit ist das kein Thema...
 
Zurück