Radeon RX 7000 heute: Livestream zur Enthüllung von RDNA 3 um 21 Uhr auf Youtube

Diese Aussage wundert mich jetzt aber etwas. Sonst bist du doch objektiver. Seit etwa zwei Jahren kannst du überall nachlesen dass der best Case für RDNA die 1080p Benchmarks sind. Auch AMD weiß das. Statt aber eben diese zu präsentieren, wählt man die Auflösung in der die Konkurrenz am stärksten ist. Dennoch bist du der Meinung dass man genau das Gegenteil versucht hätte. Kannst du mir das erklären? Wie kommst du zu der Aussage? Worauf fußt die?

Das kommt auf die Größe des Infinity Cache an. Deshalb kann man alle Karten unter der RX 6700XT auch als Auflösungskrüppel bezeichnen (AMD Fanboys lieben dieses Wort). Wenn der Infinity Cache zu klein ist, dann kommt es in höheren Auflösungen zu einem Cache Miss und die Daten müssen aus dem RAM geholt werden. Ab der RX 6700XT ist AMD ohne Probleme zu 4K fähig, bei 8K ist jedoch die Luft raus.

Um 8K, ohne irgendwelche überproportionalen Einbußen zustande zu bringen, wären wohl etwa 256MB Infinitycache notwendig. Dashalb haben sie wohl bei den 8K Benchmarks auch konsequent FSR verwendet, da dann von einer geringeren Auflösung hochgerechnet wird, in der die AMD Karten noch stark sind.

Man kann das sogar in der Präsentation extrem gut sehen. Der Vorteil von FSR, gegenüber nativ, wird da hervorgehoben und der ist bei 8K relativ gesehen sehr viel größer, als bei 4K.

In nativen 8K ist Nvidia wohl nach wie vor absolut überlegen.

Schön aufs Marketing reingefallen. Ohne High-End 8K Bildschirm mit hoher Wiederholrate kommst Du gar nicht an diese Grenze...

Man kann die Leistung auch ohne 8K60 oder 4K144 abrufen. In Cyberpunk 2077 geht die RTX 4090 nativ in 4Kauf etwas über 20 FPS runter, deshalb braucht DLSS, wenn man die 4K60 erreichen möchte.

Und in 8K kommst du auch nicht Ansatzweise an diese Grenze, weil auch eine 4090, da noch nichtmal Ansatzweise genügend FPS liefern würde, damit man in die DP Grenze herein kommen würde.

Das dauert noch 1-2 Generationen

Schon die RTX 3090 konnte das meiste in 8K60 darstellen, die RTX 4090 jetzt schon fast alles. Von daher kann man damit problemlos in 8K60 zocken, wenn auch nicht in absolut alles Spielen nativ.
 
Wenn ich die Präsentation recht verstanden hab, dann ist die AI nur in der Video Engine im Einsatz, um Streams aufzuwerten.
Habe noch mal geschaut, es wird explizit gesagt dass die AI-Accelerators "wichtig für die Gaming Community" geworden sind. "Future uses" wird auch benutzt. Also für mich klingt das nach ML Upscaling bzw. FSR 3.
 
240€ für son Block?
Wow. Den für meine TitanXP damals hab ich iirc noch für etwas über 100€ gekauft. Da hat die Preisspirale aber auch ganz schön reingezimmer - bzw. man hat sich wohl am GPU-Markt orientiert^^

Bestimmte Berufsgruppen verraten sich öfter ungewollt selbst mit ihren Antworten - das ist dann immer die unterschwellige Erinnerung was die User im RL so treiben. :-D
Der EK Quantum Vector 2 Wasserblock für die RTX 4090 Strix/TUF kostet knapp 400 Euro...Die Preise werden da auch absurd. Okay, die Dinger sind heute deutlich besser als früher aber soviel hat, vor nicht allzu langer Zeit, die obere Mittelklasse bei GPUs gekostet.
 
Okay, die Dinger sind heute deutlich besser als früher
Die Frage ist wozu bzw. was da besser ist. Sie sind opulenter/designter, klar - aber rein technisch? Es issn durchflossener vernickelter Kupferblock. Ob da jetzt die Lamellen etwas gröber oder feiner sind oder ähnliches ist in der Praxis zu hause völlig Latte, denn ob der Durchfluss jetzt 5 l/h höher oder niedriger ist oder die Temperatur 2K höher oder niedriger ist ist einfach egal bei custom Wasserkühlungen die sowieso WEIT leistungsfähiger als nötig sind.
 
Nur die Variante mit aktivem Backplate, also praktisch 2 komplette WaKü Blöcke. Die einseitige Version kostet deutlich weniger, irgendwas um die €250 (müsste nachsehen).

Die liegt auch schon hier und wartet darauf, verbaut zu werden... :)
Okay, danke für die Info. Ggibt es einen Vorteil bei der doppelseitigen Version die den Preisunterschied rechtfertigt?
 
Hilft mir nicht beim verstehen, wieso zeigt man dem User 2,5 Ghz an, die Shader laufen tatsächlich aber nur mit 2,3 Ghz? Das klingt ein bisschen nach Rauchbombe für mich.
Es gibt getrennte Clock Domains von Frontend und Shader.
Es wurde so erklärt:
Die Shader sind eigentlich "zu schnell" fürs Frontend, deswegen können sie langsamer takten (Effizienz).
Oder anders gesagt, es gäbe noch Verbesserungen beim Frontend :D
 
Theoretisch bessere Kühlung der Kartenrückseite? Aber ich denke, das ist tatsächlich eher akademisch. Weswegen ich auch darauf verzichtet habe.

Optisch siehts auch besser aus, wenn man auf den Look steht.
Hmmm. Da ich mir erntshaft überlege das Komplett-Wakü+Set für die 5000er Corsair Gehäuse zu kaufen, bin ich an dem Wasserblock für meine Strix interessiert . Die Strix ist wirklich leise aber ich bin da extrem empfindlich geworden in den letzten Jahren. Brauche absolute Ruhe beim Gaming.
 
Die rtx4080 16gb ist deutlich langsamer als die rtx4090 um genau -65%
amd rx7900xt ist 7% schneller als die rtx4080 16gb
Nvidia muss reagieren

1: wenn die RTX 4080 wirklich um 65% langsamer wäre, dann würde sie irgendwo bei der RTX 3060Ti landen, was unwahrscheinlich ist.
2: Woher hast du die 7% herausorakelt? AMD hat keinen einzigen echten Vergleich gezogen und die Aussagekraft der gezeigten Benchmarks ist doch eher begrenzt. Bei RTX 4090 hieß es, in den Präsentationen, auch, dass die doppelt so schnell wäre, real waren es dann eher 1,6-1,75.

Ob Nvidia reagieren muß wird sich noch zeigen. Im Moment ist sowieso jede Karte, die ausgeliefert wird, so gut wie verkauft

Zwischen der rx7900xtx und xt sind nur 43% dazwischen.

Ich weiß, dass du sehr gerne irgendwelche Zahlenkolonnen durch den Taschenrechner jagst und glaubst, das hätte irgend eine besondere Aussagekraft. Allerdings ist es absoluter Quatsch, das ganze in Prozent anzugeben.

In der Realität wird sich das noch zeigen müssen. Wie wirkt sich das geringere Speicherinterface aus und wie sehr kann das der Infinitycache kompensieren? Da hast du keine Ahnung, auch wenn du mit deinen Zahlenkolonnen darüber hinwegtäuschen willst.

das amd nen Preiskampf angeht überrascht.

Sie haben nur 20% Marktanteil und ihr Markenname ist schlechter, als der von Nvidia. Sie sind Pepsi und Nvidia ist Coca Cola. Es ist klar, dass sie einen besseren Preis brauchen, wenn sie Marktanteile halten oder gewinnen wollen.
 
Die Werbung mit den 8K ist aber auch verkehrt.
Das hat Gamers Nexus gerade nochmal auf YT erklärt. AMD hat lediglich 2x 4K berechnet und nicht 4x 4K bei der ganzen Präsentation. Den Fehler hatte Nvidia schon gemacht und ist gebasht worden, das gleiche nun auch für AMD. Gleiches Recht für alle.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Hmm, nun hab ich mir heute erst eine 6900XT in den Rechner gebaut. Aber die wird behalten, 689€ sind in Anbetracht der Minderleistung gegenüber der nun neuen Generation wirklich fair. Würde ich zumindest meinen.
 
"Up To 1,7* faster ..." Es bleibt spannend für was "together we advance" Ryzen + RDNA3 noch gut sein wird. ;)
Die 4090 ist aber im Durchschnitt 76% schneller und nicht nur "Up to 1,76x faster".
Wenn du das beste Ergebnis der 4090 nimmst, dann sieht AMD alt aus.
In God of War ist die 4090 doppelt so schnell wie die 6950XT. Man könnte hier also von "Up to 2,0x" sprechen, was 30% mehr sind.
Edit: In Psychonauts 2 sinds sogar 2,17x, also 47% schneller.
 
Ganz ehrlich - das wusste ich nicht. Bei Grafikkarten in dieser Performanceklasse interessieren mich 1080p-Benchmarks auch nicht im geringsten, selbst WQHD ist da schon knapp - 7900er und 4080/90er Karten sind UHD-Karten - egal ob ihnen das "liegt" oder nicht, da müssen sie liefern.


Das kann ich in meinem Post weder lesen noch verstehe ich was du meinst.
Ich habe nebenbei auch nirgendwo irgendwas von Auflösungen gesagt. :ka:


Die einzige Aussage ist: "Wäre man schneller gewesen als eine 4090 hätte man das gezeigt".
--> da man das nicht gezeigt hat ist man langsamer.
Doch, du schriebst:
Wäre eine 7900XTX in Schlagdistanz oder gar besser als eine 4090 hätte es auch 100%tig sicher entsprechende Balken in der Präsentation gegeben. Da es aber (selbst auf Marketingfolien die die best cases zeigen) dafür nicht reicht zeigt man das eben alles nicht.
Diese Marketingfolien hier zeigen aber den Worstcase für RDNA. AMD konnte mit der 6900XT in 1080p an der 3090 und manchmal sogar der 3090ti vorbei ziehen. Hier hätten sie sowas zeigen können, einfach um den Balken länger zu haben als bei Nvidia, dennoch haben sie es nicht gemacht. Das ist exakt das Gegenteil von deiner Aussage. Nicht falsch verstehen, ich mache dir keinen Vorwurf, nur hat mich interessiert wie du zu so ner fraglichen Aussage kamst.

Auch ich finde, dass diese Karten für 4K gemacht sind und nicht für 1080p. Nur werden sie in den ganzen Indizes ja dennoch in allen anderen Auflösungen getestet. Siehe hier bei PCGH, wo 4K gerade einmal 25% der Tests ausmachen, weil Steam jedes Internetcafe für ihre Erhebungen ran zieht.
 
Hmm, nun hab ich mir heute erst eine 6900XT in den Rechner gebaut. Aber die wird behalten, 689€ sind in Anbetracht der Minderleistung gegenüber der nun neuen Generation wirklich fair. Würde ich zumindest meinen.
Hast nen guten Kauf gemacht. Ich habe in 2021 1350 Euro für meine 6900XT von MSi bezahlt. Mein Glüpck war dass ich die nach fast einem Jahr genau für 1350 Euro wieder verkaufen konnte. In 1440p ist die wirklich extrem performant.
 
Habe noch mal geschaut, es wird explizit gesagt dass die AI-Accelerators "wichtig für die Gaming Community" geworden sind. "Future uses" wird auch benutzt. Also für mich klingt das nach ML Upscaling bzw. FSR 3.
Hmm.. den Teil hab ich dann überhört, oder die Streamer haben drüber geplaudert... hab den Stream nicht "nativ" gesehen.
 
Diese Marketingfolien hier zeigen aber den Worstcase für RDNA.

Der Worst Case wären 16K, da dürfte AMD, dank dem Infinity Cache, kein Land mehr sehen. Auch bei nativem 8K werden sie wohl klar den kürzeren ziehen.

Deshalb hat AMD bei 8K wohl auch FSR verwendet, vermutlich den Performance Modus, der von 4K aus hochrechnet. Damit ist der Infinity Cache kein Problem mehr und AMD steht deutlich besser da.

Kein Hersteller dürfte so blöd sein und bei seiner Präsentation die Beispiele nehmen, in denen er ganz besonders schlecht abschneidet. Vorallem, wenn es so ein harter Wettbewerb, wie zwischen AMD und Nvidia ist.
 
Zurück