Radeon RX 6000: Zweitschnellste GPU mit 2.400 MHz Game Clock und 255 Watt?

Ich würde die Erwartungen etwas realistisch halten.
Ich denke am Ende sehen wir eine Leistung knapp unterhalb bzw bei einigen Spielen auf dem selben Level wie eine RTX 3080, mit 16GB Vram, jedoch weniger RT Leistung und auch kein Technologie die mit DLSS mithalten kann.
Letzteres halte ich für ein Schlüsselfeature, bringt nichts wenn AMD theoretisch gleich schnell ist, Nvidia dann selbst mit einer RTX 3070 und DLSS an BN vorbeizieht in punkto Performance und Bildqualität.
 
Ich habe heute mal ein paar Beispielrechnungen veröffentlicht, weil Patrick durchaus Recht hat und mir einige der unreflektierten News nach solchen Twittereien echt auf den Zeiger gehen. Vor allem auch, da sie die "Leaker" durch eine Fehlinterpretation mangels des nötigen Verständnisses der Materie schnell mal ins falsche Licht rücken.

Und wen es interessiert, ich verklinke mich ja nie in Fremdforen, das MorePowerTool hat auch noch was dazu zu vermelden ;)
Dann übernehme ich das mal.
Hier dann der Link zu Igors Artikel mit seinen Berechnungen:


Nix mit 255W ehe im Bereich von 320W oder auch mehr.
 
Igor's Artikel ist dahingehend sehr interessant, also Big Navi dürfte dann auch auf 320 Watt kommen, dann erwarte ich mir aber auch gleiche RT Leistung wie die RTX 3080, ansonsten wäre das doch eher entäuschend.
 
"Und eine delikate Parallele zu NVIDIA gibt es auch noch, nämlich die Treiber für die Evaluation Boards (man ist gerade in der EVT Phase), aktuell Beta8. Auch AMD hat die Grafikperformance komplett beschränkt, um lästige Leaks zu vermeiden." Wir müssen also davon ausgehen, dass alle bisher geneannten Benchmarks deutlich zu niedrig liegen!
 
Vielen Dank @FormatC ! :)
Jetzt sind schlauer und wirklich super erklärt.

Nebenbei gefragt, streamst du Veranstaltungen von Hardware wie die kommende von AMD Navi auf YouTube oder Twitch? Falls nicht würden sich sicher viele freuen dir beim "offiziellen" Ersteindruck zuzuschauen.

LG :)
 
Alles in allem sehe ich keinen Grund eine der AMD Karten zu kaufen. Für NVidia spricht einfach:

- NVenc
- DLSS
- RT

Da wird AMD in keiner der Disziplinen gleichziehen. Ich sehe eigentlich nur den Vorteil daß man durch AMD noch günstiger an eine Nvidia Karte kommen könnte, wenn sie denn mal breitflächig verfügbar sind.
 
Zuletzt bearbeitet von einem Moderator:
Vielen Dank @FormatC für die ausführlichere Klarstellung.

Ich schreibe jetzt schon seit Tagen in den entsprechenden Threads hier, dass 255W niemals die Gesamtleistungsaufnahme sein können und gebe seit Wochen die gleiche Einschätzung zur Performance und Leistungsaufnahme ab, zuletzt hier:
Wie gesagt - Navi21 KANN die RTX3080 schlagen wenn AMD sie am ganz oberen Ende ansetzt was TDP/Takt angeht. Aber zu glauben dass das mit weniger als 300W passiert ist SEHR optimistisch.

Ich gehe davon aus, dass AMD ein (Top-)Modell bringen wird, das die 3080 knapp schlägt - einfach weil es möglich ist und es einen großen Marketingwert hätte. Das werden sie aber mit viel Gewalt (bedeutet deutlich über 300W) tun müssen. Und ich erwarte ein zahmeres/effizienteres Modell, dass knapp unter der 3080er rangiert aber dafür auch merklich unter 300W verbraucht.

Alles, was weiter von dieser "Vorhersage" abweicht (etwa Navi schafft die 3080 selbst mit 350W nicht oder Navi ist so gut dass sie mit unter 300W sogar an die 3090 rankommen) würde mich ehrlich überraschen.

Dafür werde ich aber in den Threads meist verbal zerrissen. Schön, dass sehr ähnliche Vorhersagen von einer gewissen IgorsLab Seite kommen die mehr Gewicht hat als son komischer Alki bei PCGH der sich erdreistet hat, >RTX3080-Performance bei 255W Gesamtleistungsaufnahme stark anzuzweifeln. :ugly:

pietcux schrieb:
Na die von Lisa selbst gezeigten Benchmarks werden wohl stimmen, oder was meint ihr?
Ja, die stimmen - nur weiß niemand welche Karte mit welchen Taktraten und welcher Leistungsaufnahme benutzt wurde. Wenn das ne 290W-6900er war wären die Ergebnisse sehr gut, wenns eine 350+W 6900XT+OC war wäre es ziemlich schwach.
 
*mitfackelnundmistgabelnbewaffne*
Wie kann er es wagen? :ugly:

Da AMD im Bezug zu BigNavi echt kaum "handfeste" leaks zugelassen hat, kommen halt die ganzen Träumer und "hypetrainer" aus ihren Löchern und machen sich die Welt (hier bekanntes Zitat einfügen)...
 
Es wurde geschrieben, dass sie 100% schneller als eine 2070 Super mit 240W Undervolting ist [...] Gametakt [...]
Ich habe auch nirgends behauptet, dass du Unsinn geschrieben hast. Ich habe lediglich handfeste Fakten aus dem PCGH-Test zu 4K/Maximum ergänzt und hier, wie schon geschrieben, über die 19 Titel im Mittel +91 % bzw. +105 % mehr Fps zugunsten der 3080 FE@Stock. (Als kleine Randbemerkung: Einen extremen Ausreißer stellt Ghost Recon Breakpoint mit Vulkan dar mit +173 % und +162 %.)

Zum Takt, den ich für "fehlinterpretiert" oder gar falsch gelakt halte: Die PS5 für sich alleine genommen ist wohl eher ein schelchter Indikator, da das Design voraussichtlich erst nachträglich auf diesen hohen Takt geprügelt wurde, nachdem man sah, dass Microsoft mit einer deutlich größeren GPU ums Eck kommen würde und die Yield-Probleme scheinen das zu bestätigen.
Wie gesagt (ein beschränkterer TDP-Envelop bei den Konsolen ist offensichtlich), wird die Xbox nicht ohne Grund knapp über 400 MHz niedriger takten und die hat angeblich gar noch die etwas leistungsfähigere Kühllösung.
Wenn der Wert 2,4 GHz nicht komplett aus der Luft gegriffen ist für die kommenden dGPUs, nehme ich hier eher an, dass das ein Peak-Takt sein wird. Der vorausgegangene Videocardz-Leak sprach bspw. bestenfalls von 2,2 GHz bei dem größeren Modell, was sich dann schon eher nach etwas wie einem Game-Takt liest, insbesondere wenn man berücksichtigt, dass der Chip deutlich größer werden soll und deutlich mehr verheizen wird.
Igor rechnet hier 320 W und gar 355 W TBP für OC-Versionen vor, was, wenn man sich die vergangenen Wochen im Forum ansieht, einigen FBs durchaus die Tränen in die Augen treiben dürfte ... denen hilft dann nur noch das in solchen Situationen gernzitierte "Was kümmert mich mein Geschwätz von gestern?" ;-)
[...] BN RT ist, so hört man, schlechter als NV RT [...]
Gibt es dazu irgend einen Beleg oder auch nur irgendwas, das eine grobe Ableitung zulassen würde? Ich wüsste nichts davon; aktuell liegen einfach keine Daten vor, die eine echte Raytracing-Bewertung auf RDNA2 zulassen würden.
Die sporadischen Aussagen zu den Konsolen sind in diesem Kontext eher schwierig, denn die Konsolen müssen sich mit deutlich beschränkterer Hardware mit HighEnd-PCs messen bzgl. ihrer grafischen Opulenz und dass Entwickler hier Raytracing nur sporadisch einsetzen, liegt wohl eher daran, dass man das grundsätzliche Grafikniveau für NextGen anheben will, als dass man zu viel Rechenleistung auf ein paar einzelne Effekte verschwenden möchte. (Zudem muss man hier auch einen gewissen Lernprozess der Entwickler bzgl. der neuen Hardware berücksichtigen. Spätere Entwicklungen werden sicherlich die Hardwareressourcen umfangreicher nutzen.)

Einen ersten, echten, zuverlässigen Test zur Implementation wird man erst in einem Monat haben, wenn man bspw. Cyberpunk und CoD:CW parallel auf Ampere und RDNA2 gegeneinander antreten lassen kann.
 
Zuletzt bearbeitet:
Und dann kommen die grünen Hateboiis um die Ecke und das Spiel geht von vorne los. Kennen wir schon ^^
Als kleine Anmerkung: die "roten Hateboiis" sind aber in keinster Weise besser und ebenfalls zuhauf vertreten . Ein derartiges Verhalten und damit einhergehende verzerrte Pseudo-Argumente sind grundlegend negativ zu bewerten, egal von wem sie kommen bzw. welchem Lager bzw. Brand sie zugeneigt sein mögen.
 
Zuletzt bearbeitet:
Dafür werde ich aber in den Threads meist verbal zerrissen. Schön, dass sehr ähnliche Vorhersagen von einer gewissen IgorsLab Seite kommen die mehr Gewicht hat als son komischer Alki bei PCGH der sich erdreistet hat, >RTX3080-Performance bei 255W Gesamtleistungsaufnahme stark anzuzweifeln. :ugly:
Lass den Kopf nicht hängen, die alten Forenhasen wissen das du Ahnung hast.
 
Ich habe auch nirgends behauptet, dass du Unsinn geschrieben hast. Ich habe lediglich handfeste Fakten aus dem PCGH-Test zu 4K/Maximum ergänzt und hier, wie schon geschrieben, über die 19 Titel im Mittel +91 % bzw. +105 % mehr Fps zugunsten der 3080 FE@Stock. (Als kleine Randbemerkung: Einen extremen Ausreißer stellt Ghost Recon Breakpoint mit Vulkan dar mit +173 % und +162 %.)

Zum Takt, den ich für "fehlinterpretiert" oder gar falsch gelakt halte: Die PS5 für sich alleine genommen ist wohl eher ein schelchter Indikator, da das Design voraussichtlich erst nachträglich auf diesen hohen Takt geprügelt wurde, nachdem man sah, dass Microsoft mit einer deutlich größeren GPU ums Eck kommen würde und die Yield-Probleme scheinen das zu bestätigen.
Wie gesagt (ein beschränkterer TDP-Envelop bei den Konsolen ist offensichtlich), wird die Xbox nicht ohne Grund knapp über 400 MHz niedriger takten und die hat angeblich gar noch die etwas leistungsfähigere Kühllösung.
Wenn der Wert 2,4 GHz nicht komplett aus der Luft gegriffen ist für die kommenden dGPUs, nehme ich hier eher an, dass das ein Peak-Takt sein wird. Der vorausgegangene Videocardz-Leak sprach bspw. bestenfalls von 2,2 GHz bei dem größeren Modell, was sich dann schon eher nach etwas wie einem Game-Takt liest, insbesondere wenn man berücksichtigt, dass der Chip deutlich größer werden soll und deutlich mehr verheizen wird.
Igor rechnet hier 320 W und gar 355 W TBP für OC-Versionen vor, was, wenn man sich die vergangenen Wochen im Forum ansieht, einigen FBs durchaus die Tränen in die Augen treiben dürfte ... denen hilft dann nur noch das in solchen Situationen gernzitierte "Was kümmert mich mein Geschwätz von gestern?" ;-)
Dann sorry, hatte dies als ablehnenden Kommentar auf meinen Post verstanden.

Zum Takt spreche ich ebenfalls wie du immer sehr vorsichtig, ich würde dies halt nicht kategorisch ausschließen, halte es aber auch eher für unwahrscheinlich, von einem Gametakt zu sprechen. Denke die 2,4Ghz werden MaxBoost sein und mit ein wenig Glück werden wir 2,2Ghz typischen GameClock sehen.

Zum Thema Verbrauch kann ich letzlich wenig beitragen, aber hier jetzt Igor als Quelle zu nehmen, halte ich auch für fahrlässig. Denke die 238W (glaube ich) sind ziemlich sicher, was ja nur den Chip angeht, was dann noch nebenbei für den Rest so aufläuft? Ich kann es nicht sinnvoll sagen.
 
Klingt gut aber Nvidia hat sicher schon die ganzen Super´s und Ti´s in der Schublade bereitliegen um dann auf kommende AMD Karten schnell zu reagieren.
Viel interessanter wird das Preisgefüge, ob AMD da Nvidia zumindest etwas ein Strich durch die Rechnung macht. Wobei ich auch da so meine Zweifel hab. Preis/Leistung stimmt bei AMD auch schon länger nicht mehr, zumindest bei den Grafikkarten.
Na ja, bald wissen wir mehr.
 
Als kleine Anmerkung: die "roten Hateboiis" sind aber in keinster Weise besser und ebenfalls zuhauf vertreten . Ein derartiges Verhalten und damit einhergehende verzerrte Pseudo-Argumente sind grundlegend negativ zu bewerten, egal von wem sie kommen bzw. welchem Lager bzw. Brand sie zugeneigt sein mögen.
Ich denke aber, dass die grünen doch massiv in der Überzahl sein sollten, gibt halt auf Grund der letzten Generationen viel mehr NV Nutzer als AMD. Da die Fanboys sich ja eh meistens wie Fahnen im Wind drehen, wird die Zahl der Fanboys in linearem Verhältnis zu den Nutzern stehen.

Aber ja, Fanboys sind irgendwie immer anstrengend, aktuell stören mich abe insbesondere die sehr aktiven NV Fans, die die Ampere Generation über den Klee loben, während AMD angeblich nichts kann, außer große Reden schwingen. Während NV es geschafft hat die Effizienz um 5% zu heben und die restliche Mehrleistung quasi nur über Verbrauch zu holen, wird AMD hier angefeindet, obwohl man meines Wissens nach bisher wenig zu seinen Karten gesagt hat. Einzig zur Effizienz hat man Stellung genommen, dies aber im Vergleich zur Vorgängergeneration, was ich ersteinmal für möglich halte. Wenn es denn anders kommt, dann kann man sich auch noch genug aufregen. So sind die Gerüchte eigentlich nur durch irgendwelche angeblichen Insider gestreut und da ist es mir egal wer, sie sind alle Schall und Rauch, wenn es endlich echte Infos gibt.
Klingt gut aber Nvidia hat sicher schon die ganzen Super´s und Ti´s in der Schublade bereitliegen um dann auf kommende AMD Karten schnell zu reagieren.
Viel interessanter wird das Preisgefüge, ob AMD da Nvidia zumindest etwas ein Strich durch die Rechnung macht. Wobei ich auch da so meine Zweifel hab. Preis/Leistung stimmt bei AMD auch schon länger nicht mehr, zumindest bei den Grafikkarten.
Na ja, bald wissen wir mehr.
Fraglich nur, wie eine 3080 Super aussehen soll? Denkbar ist dies mit 20GB VRAM, eine weitere Taktsteigerung halte ich kaum für durchsetzbar, wirkliche Mehrleistung außer in Fällen wo mehr VRAM Vorteile bringt, sehe ich nicht. Das einzige denkbare wäre eine Umsetzung bei TSMC mit 7nm+, fraglich ob das aber schon in der Schublade liegt.
 
Fraglich nur, wie eine 3080 Super aussehen soll? Denkbar ist dies mit 20GB VRAM, eine weitere Taktsteigerung halte ich kaum für durchsetzbar, wirkliche Mehrleistung außer in Fällen wo mehr VRAM Vorteile bringt, sehe ich nicht.
Es gibt noch einige Shadereinheiten die man mehr freischalten kann beim GA102. Es wäre nicht das erste Mal, wo eine xx80Ti quasi genauso schnell wie die Titan (heute: 3090) war bzw. nur minimale Abstriche hatte.

Wenn NV will bzw. muss, können sie die RTX3090 umlabeln zur 3080Ti (und 20 statt 24 GB verbauen und 100 MHz Takt abziehen um nen Pseudoabstand zu wahren).
 
Zurück