Radeon RX 7000: AMD spricht nicht mehr vom Launch am 3.11.

RDNA3 holt aus einem Watt aber 50% mehr Leistung als RDNA2
>50%! das könnten also theoretisch auch 59 oder gar 60% sein, deutlich über 60% wohl wiederum kaum, sonst würden sie dass wohl auch so dazu schreiben.

Die >50% sind übrigens auch deutlich mehr als was Nvidia mit der RTX4090 abliefern kann.

RTX4090 TDP 450W
RTX3090 TDP 350W bzw. Faktor 1.3 die RTX4090 ist ca. 80% schneller wie die 3090 dann bekommen wir
als Ergebnis 180/1.3=140 bzw. die RTX4090 ist nur ca. um den Faktor 1.4 effizienter wie die 3090 und dies trotz
dem riesen Sprung von Samsung 8nm (manch einer sagte das es sich dabei nur um einen besseren 10nm Prozess handeln soll was allerdings nicht stimmt) auf TSMC4nm.
Da sag ich nur Hut ab AMD bessere Effizienz trotz Node Nachteil.


1665913788977.png
 
Zuletzt bearbeitet:
>50%! das könnten also theoretisch auch 59 oder gar 60% sein, deutlich über 60% wohl wiederum kaum, sonst würden sie dass wohl auch so dazu schreiben.

Die >50% sind übrigens auch deutlich mehr als was Nvidia mit der RTX4090 abliefern kann.

RTX4090 TDP 450W
RTX3090 TDP 350W bzw. Faktor 1.3 die RTX4090 ist ca. 80% schneller wie die 3090 dann bekommen wir
als Ergebnis 180/1.3=140 bzw. die RTX4090 ist nur ca. um den Faktor 1.4 effizienter wie die 3090 und dies trotz
dem riesen Sprung von Samsung 8nm (manch einer sagte das es sich dabei nur um einen besseren 10nm Prozess handeln soll was allerdings nicht stimmt) auf TSMC4nm.
Da sag ich nur Hut ab AMD bessere Effizienz trotz Node Nachteil.


Anhang anzeigen 1405063

Es gibt noch keinen Test der Karten und Du lobst bereits die bessere Effizienz? :lol:
Auf der Folie steht übrigens "Projected Performance/Watt Uplift", das ist also rein theoretisch, selbst seitens AMD.

Wenn aus "Launch" ein "Unveil" wird dann klingt das nach einer Verschiebung. das kommt mir seltsam vor, vor allem so kurz nach dem 4090 Launch. Vielleicht möchte AMD doch noch mal etwas an den TDPs / Preisen anpassen. Ich bin auf jeden Fall gespannt auf die ersten Tests!
 
Es gibt noch keinen Test der Karten und Du lobst bereits die bessere Effizienz? :lol:
Auf der Folie steht übrigens "Projected Performance/Watt Uplift", das ist also rein theoretisch, selbst seitens AMD.

Wenn aus "Launch" ein "Unveil" wird dann klingt das nach einer Verschiebung. das kommt mir seltsam vor, vor allem so kurz nach dem 4090 Launch. Vielleicht möchte AMD doch noch mal etwas an den TDPs / Preisen anpassen. Ich bin auf jeden Fall gespannt auf die ersten Tests!
Ich denke mal die Preise sind schon gesetzt wurden und befinden sich irgendwo bei 1500 - 1900€ für eine 7900XT und die 7800/xt entsprechend drunter um 200+/- €. Ob man so kurz vor dem Releas noch was an der TDP drehen kann ist fraglich und es wird auch nicht zu viel nach oben gehen.

Ich denke eher das der Erste Twitter Artikel unklug Formuliert wurde und das nun eine reine Richtigstellung ist was zwar recht spät geschieht aber es wurde zumindest gemacht.

Ich bin eher gespannt wie viel VRam eine 7900XT bekommt da kann ja von 16 - 32 GB alles möglich sein, ausgehen würde ich aber von ca 24 GB und die 7800/XT eher gegen 16 GB.
 
Wenn aus "Launch" ein "Unveil" wird dann klingt das nach einer Verschiebung. das kommt mir seltsam vor, vor allem so kurz nach dem 4090 Launch. Vielleicht möchte AMD doch noch mal etwas an den TDPs / Preisen anpassen. Ich bin auf jeden Fall gespannt auf die ersten Tests!

Als "Unveil" würde ich den Prozess bezeichnen bei dem man sehr gezielt öffentliche Statements und Messwerte streut mit dem Ziel, dass dieses Marketingmaterial von Enthusiasten und Marken-Evengelisten viral weiterverbreitet ist. Kostenlose Werbung von Faboys die man mit genehmen Fakten anfüttert wenn man so will.

Die harte Realität wird sein, dass man während der Krypto-Welle das PC Gaming Hobby sehr stark in den Luxus-Hobby Bereich geschoben hat. Es gibt Sportarten die kosten hunderte Euros im Jahr (Fußball) und es gibt Sportarten die kosten tausende Euros im Jahr (Golf). Nvidia, Intel, AMD, die wollen alle lieber Golfspieler als Kunden. Warum 200€ GPU Kunden in Europa beliefern, wenn Länder wie China und Indien einen Boom erleben und dort für jeden 200€ Kunden aus Europa ein 600€ Kunde wächst? Indien mag in der Gesamtbetrachtung arm sein, aber dort leben mehr Menschen auf dem Niveau von Deutschland als in Deutschland.

Diese Neuausrichtung war insofern ein Fehler, da die Welt für mindestens diesen Winter in eine Energiekrise rennt. Wird uns nicht umbringen, wird aber Konsumgütern wie GPUs schwer zu schaffen machen. 2022 gab es auch keine Nahrungskrise, weil was Weizen und Mehl angeht wird da noch die Ernte des Vorjahres verkauft. Schlechte Ernte 2022 durch Krieg und Düngemittelknappheit wird sich erst 2023 bemerkbar machen.

AMD wird seine jetzt schon schlechten Zahlen kennen und wenn sie sie nicht ganz dumm sind, wird die Ursachenanalyse ihnen sagen, dass es vor April 2024 wohl auch nicht besser wird. AMD wird imo nicht nur RX7000 verschieben, die werden aktuell wohl die Aufträge bei TSMC ändern was gefertigt werden soll. AMD muss mehr Produkte fertigen die sich verkaufen, nicht nur Produkte die in Foren und auch Youtube zwar die User unterhalten, dann aber im Regal liegen.
 
>50%! das könnten also theoretisch auch 59 oder gar 60% sein, deutlich über 60% wohl wiederum kaum, sonst würden sie dass wohl auch so dazu schreiben.

Die >50% sind übrigens auch deutlich mehr als was Nvidia mit der RTX4090 abliefern kann.

RTX4090 TDP 450W
RTX3090 TDP 350W bzw. Faktor 1.3 die RTX4090 ist ca. 80% schneller wie die 3090 dann bekommen wir
als Ergebnis 180/1.3=140 bzw. die RTX4090 ist nur ca. um den Faktor 1.4 effizienter wie die 3090 und dies trotz
dem riesen Sprung von Samsung 8nm (manch einer sagte das es sich dabei nur um einen besseren 10nm Prozess handeln soll was allerdings nicht stimmt) auf TSMC4nm.
Da sag ich nur Hut ab AMD bessere Effizienz trotz Node Nachteil.

Ist natürlich immer die Frage welche Werte man genau nimmt. Die 4090 verbraucht ja überhaupt keine 450 Watt, auch wenn dort das Limit liegt. In Games verbraucht sie eher 380-420 Watt. Gleichzeitig läuft sie in Games auch mit 300 Watt Limit bei weniger als 10% Leistungsverlust. So großzügig war die 3090 nicht.

Entsprechend ist die Effizienz deutlich über 50% bei Nvidia gestiegen. Bei AMD ist das Ziel wieder >50%/Watt zu erreichen. Mal schauen was letztendlich wirklich dabei herauskommt. Ich hoffe das sie etwas auf 4090 Niveau herausbringen können. Würde dem Markt gut tun.
 
*03.11.
Richtige Formatierung beachten, bitte :P
Außerdem wird das nächste Wort nach einem Doppelpunkt immer großgeschrieben.
Solche Sachen sollte man als (professioneller) Schreiberling wissen...

Und unnötige Anglizismen weglassen. Da bekommt man ja Augen- und Hirnkrebs...
Als gebürtige Brite finde ich es auch unpassend das alles immer Anglifiziert werden muss, zudem es meist nicht mal annährend richtig ist.
 
>50%! das könnten also theoretisch auch 59 oder gar 60% sein, deutlich über 60% wohl wiederum kaum, sonst würden sie dass wohl auch so dazu schreiben.

Die >50% sind übrigens auch deutlich mehr als was Nvidia mit der RTX4090 abliefern kann.

RTX4090 TDP 450W
RTX3090 TDP 350W bzw. Faktor 1.3 die RTX4090 ist ca. 80% schneller wie die 3090 dann bekommen wir
als Ergebnis 180/1.3=140 bzw. die RTX4090 ist nur ca. um den Faktor 1.4 effizienter wie die 3090 und dies trotz
dem riesen Sprung von Samsung 8nm (manch einer sagte das es sich dabei nur um einen besseren 10nm Prozess handeln soll was allerdings nicht stimmt) auf TSMC4nm.
Da sag ich nur Hut ab AMD bessere Effizienz trotz Node Nachteil.


Anhang anzeigen 1405063

Naja die 450 Watt liegen in Games ja nicht an, sodass die Effizienz von Ada schon sehr beachtlich ist.
IgorsLab hat da ein tolles Video gemacht und auch gemeint, das das AMD erstmal nachmachen muss.

Bin wirklich gespannt auf RDNA3. Weiß man eigentlich ob AMD ihre Shader wie Ampere aufstellt um im besten Fall die doppelte Rohleistung abrufen zu können?
 
Spekulieren kann man viel. Nvidia hat massive Vorsprünge was Treiber angeht, diverse Encoder und Funktionen wie DLSS (die bei AMD existieren aber Lichtjahre hinterherhinken).
Der Treiber ist nicht mehr soweit vorne. Das war einmal, zuletzt empfand ich AMD da sogar leicht vorne!

Bei den Encodern und Funktionen sehe ich Nvidia auch teils deutlich vorne, wobei Ein oder in meinen Augen im Consumerbereich eher ein nettes Zubrot denn ein Must Have ist.

DLSS ist in Version 2.3 richtig gut und da kommt AMD nicht heran, aber Lichtjahre sind es auch nicht mehr, mit FSR 2 ist man deutlich herangerückt, würde schätzen dass man dies im kommenden Jahr gut covern kann, also 1 bis 1 1/2 Jahre Vorsprung. DLSS3 kann mich bisher nicht überzeugen, weder vom Konzept (es bringt ja keine Verbesserung des wirklich wichtigen Inputlags), noch von den bisherigen Bildern. In ruhigen Aufbauspielen kann es was bringen, wird aber dort nur am Rand wirklich was bringen, du wirst weiterhin im CPU Limit hängen und die Zwischenbilder werden nichts an der Spielbarkeit ändern. Nur in den selten Fällen wo es zwar spielbar ist, aber für das Auge ruckelt (ich würde schätzen so zwischen 25 und 35 FPS ) werden die Zwischenbilder interessant sein und einen echten Unterschied machen.
Wenn man aber bereits 40fps und mehr hat, wird es nichts bringen, in HighFPS Shooter sowieso nicht, da eben der Inputlag nicht positiv beeinflusst wird.
 
In ruhigen Aufbauspielen kann es was bringen, wird aber dort nur am Rand wirklich was bringen, du wirst weiterhin im CPU Limit hängen und die Zwischenbilder werden nichts an der Spielbarkeit ändern.
Gerade das stellt jeder bisherige DLSS 3 Test doch als positiv dar: im CPU Limit steigt die FPS massiv an. Nehmen wir Anno als Beispiel, da macht ein Input Lag von 35ms oder 50ms eher keinen Unterschied, dafür hast Du statt 60 FPS eben 100+ FPS.
 
Der Treiber ist nicht mehr soweit vorne. Das war einmal, zuletzt empfand ich AMD da sogar leicht vorne!

Bei den Encodern und Funktionen sehe ich Nvidia auch teils deutlich vorne, wobei Ein oder in meinen Augen im Consumerbereich eher ein nettes Zubrot denn ein Must Have ist.

DLSS ist in Version 2.3 richtig gut und da kommt AMD nicht heran, aber Lichtjahre sind es auch nicht mehr, mit FSR 2 ist man deutlich herangerückt, würde schätzen dass man dies im kommenden Jahr gut covern kann, also 1 bis 1 1/2 Jahre Vorsprung. DLSS3 kann mich bisher nicht überzeugen, weder vom Konzept (es bringt ja keine Verbesserung des wirklich wichtigen Inputlags), noch von den bisherigen Bildern. In ruhigen Aufbauspielen kann es was bringen, wird aber dort nur am Rand wirklich was bringen, du wirst weiterhin im CPU Limit hängen und die Zwischenbilder werden nichts an der Spielbarkeit ändern. Nur in den selten Fällen wo es zwar spielbar ist, aber für das Auge ruckelt (ich würde schätzen so zwischen 25 und 35 FPS ) werden die Zwischenbilder interessant sein und einen echten Unterschied machen.
Wenn man aber bereits 40fps und mehr hat, wird es nichts bringen, in HighFPS Shooter sowieso nicht, da eben der Inputlag nicht positiv beeinflusst wird.
Naja in vielen Spielen sind AMD-Treiber deutlich problematischer. Vor allem (selbstverständlich) bei den Nvidia-Spielen zum Release (ja Ich zocke die gerne am Release-Tag, bissl Masochismus muss sein) - da verkackt AMD mehr als oft. Nach einigen Monaten ist das meist kein Thema, das Spiel ist dann aber meist auch kein Thema wenns kein Multiplayer-Shooter ist.
Und die En/Decoder sind extrem wichtig. Das ist keine Randerscheinung mehr für irgendwelche Nerds, sondern Alltag für viele Menschen. Gut Ich bin da n wenig biased weil Ich im Livestreaming-Bereich arbeite und da überdurchschnittlich oft in Probleme renne was neue Hardware, neue Treiber und neue Software/Spiele angeht. Und da regiert Nvidia mit eiserner Faust. Teils aber auch wegen Marketing weil Nvidia SEHR viele Grafikkarten an größere Influencer aller Art verteilt und die Boardparner mitziehen. Und sogar die Shops machen das von sich aus um Werbung zu schalten (ist für den Shop halt billiger ne GPU abzudrücken als die Werbung zu bezahlen und spart sogar Verwaltungsaufwand). In diesem Bereich klebt Nvidia so hart auf dem Thron das da nicht mal mehr WD40 was bewegen kann :ugly: Und gerade hier muss AMD mit brutaler Leistung kombiniert mit neusten Technologien und Stabilität punkten und oben drauf erster sein. Im CPU-Bereich haben die das geschaft, Intel-Dominanz ist gebrochen und der Markt schön aufgeteilt und hart umkämpft. Und glaub mir wenn da drölfzig Sachen offen sind, Browser Source Overlays (die mit Chromium mit Hardwarebeschleuniging laufen), Streaming-Software, irgendwelche YouTube Videos für Musik etc. aufm 3en Monitor laufen - da stellt sich Nvidia wesentlich besser an. Dazu gibt es keine Benchmarks, erstmal weil das Wahnsinn wäre und zweitens weil das keiner zuverlässig testen kann bei den tausenden Kombinationen aus Auflösungen, Einstellungen, Clients und Sources die geladen sind und vorhandener Hardware. Side Note: OBS Studio, das beliebteste Programm für Livestreaming, hat schon ne Beta-Version mit AV1 Encoder Support. Wer will, kann das mit ner 4090 bereits ausfahren.
DLSS hingegen ist ein netter Bonus, das schaltet man ein wenn man Raytracing genießen will. Meist in Spielen wo es weniger auf Action ankommt, weil im Kampf sind mir die Reflektionen so was von egal, es sei denn die helfen die Lichter vom Gegner besser zu sehen was nie passiert ist :D
Also wünsche Ich mir als Kunde eine schöne Klatsche von AMD für Nvidia, aber nicht nur eine, sondern das gleiche was Intel passiert ist mit dem Ryzen und Threadripper. Erst schlägt man sie in einigen Bereichen + Preis, dann schlägt man sie so das sie nicht mehr wissen wo oben und unten ist und dann tritt man noch nach mit einigen Modellen die halb so viel Strom ziehen bei mehr Leistung (siehe 5800X3D).
 
So würde ich seine Aussage jetzt auch deuten.
Er ist gegen den Trend der höheren Preise, unterstützt den Trend jedoch mit einer aktiven Kaufentscheidung eines preislich überhöhten Produktes. Markt ist eine Form von Demokratie, sehen die Hersteller, dass es genug Leute gibt, die ein Produkt um gewisse Preise kaufen, werden sie gensu dorthin ihre Preise bewegen.

Ja, die Aussage sagt eines, seine Handlung was ganz anderes. Wir werden aber sn unseren Taten mehr als an unseren Worten gemessen
 
Zuletzt bearbeitet:
Er ist gegen den Trend der höheren Preise, unterstützt den Trend jedoch mit einer qktiven Kaufentscheidung eines preislich überhöhten Produktes. Markt ist eine Form von Demokratie, sehen die Hersteller, dass es genug Leute gibt, die ein Produkt um gewisse Preise kaufen, werden sie gensu dorthin ihre Preise bewegen

Man kauft sich ein Produkt welches man sich eben wünscht bzw. welches man benötigt um XYZ zu tun.
Wenn man auf alles verzichten würde was einem zu teuer erscheint, müsste man nackig in einer Höhle leben mittlerweile.
AMD hat es bei den CPUs ja auch geschafft und eine gute Produktserie rausgebracht die mittlerweile in der 4en Generation Intel in den Hintern tritt. Und dafür musste keiner auf eine Intel-CPU verzichten wer nicht wollte.
Das gleiche erwarten wir von der Grafikkarten-Abteilung eben auch. Und wenn man dafür einige Jahre braucht und sonst nicht viel bringt in dieser Zeit - OK, fein. Besser als ewig hinterherzudackeln und keine Marktanteile zu bekommen.
 
Es gibt noch keinen Test der Karten und Du lobst bereits die bessere Effizienz? :lol:
Auf der Folie steht übrigens "Projected Performance/Watt Uplift", das ist also rein theoretisch, selbst seitens AMD.

Wenn aus "Launch" ein "Unveil" wird dann klingt das nach einer Verschiebung. das kommt mir seltsam vor, vor allem so kurz nach dem 4090 Launch. Vielleicht möchte AMD doch noch mal etwas an den TDPs / Preisen anpassen. Ich bin auf jeden Fall gespannt auf die ersten Tests!
Hat AMD die im Vorfeld angekündeten Effizienz Prognosen seit es RDNA gibt jemals verfehlt?

Und es ist anzumerken, dass die 54% von RDNA1 zu RDNA2 mit dem selben 7nm Prozess erziel wurden.
Auch hat man nun einen dicken Trumpf in Form von TSMC's 5nm Prozess in der Hand.
Andererseits wird der Effizienzgewinn, der durch den IF-Cache erzielt wurde. Sehr wahrscheinlich ,oder zumindest würde mich das doch sehr überraschen, bei IF-Cache der zweiten Generation nicht mehr so groß ausfallen.

Aber wie gesagt ich rechne stark damit das diese Angaben der Wahrheit entsprechen.

Betreffend "Unveil" das kann 1000 Gründe haben.
Aber falls es wirklich an der Performance bzw. mangelhaften Effizienz im Vergleich zur RTX4090 liegen sollte, hat AMD immer noch einen Trumpf in der Hinterhand und kann möglicherweise, die wohl für etwas später eingeplante Variante von NAVI 31 mit 192MB, 3D V-Cache etwas früher bringen.
Das müsste gerade bei höheren Auflösungen >= 4k eine durschschlagende Wirkung haben und brachial einschlagen.

1665938053636.png
 
Zuletzt bearbeitet:
Hat AMD die im Vorfeld angekündeten Effizienz Prognosen seit es RDNA gibt jemals verfehlt?

Und es ist anzumerken, dass die 54% von RDNA1 zu RDNA2 mit dem selben 7nm Prozess erziel wurden.
Auch hat man nun einen dicken Trumpf in Form von TSMC's 5nm Prozess in der Hand.
Andererseits wird der Effizienzgewinn, der durch den IF-Cache erzielt wurde. Sehr wahrscheinlich ,oder zumindest würde mich das doch sehr überraschen, bei IF-Cache der zweiten Generation nicht mehr so groß ausfallen.

Aber wie gesagt ich rechne stark damit das diese Angaben der Wahrheit entsprechen.

Anhang anzeigen 1405097
Sekunde, oben hast Du von Effizienz vs Nvidia gesprochen, zeigst aber nur Effizienz Gewinne innerhalb der Radeon Gens. Du lobst AMD ja bereits jetzt bezüglich der Perf/Watt Krone, es wird am Ende darauf hinauslaufen dass wir Tests abwarten müssen um sagen zu können ob AMD die höhere Perf/Watt herausholt als Nvidia.

Der Unterschied N5 vs 4N wird eher marginal sein, kein Vergleich zu Samsung 8nm vs TSMC 7nm.
 
Sekunde, oben hast Du von Effizienz vs Nvidia gesprochen, zeigst aber nur Effizienz Gewinne innerhalb der Radeon Gens.
Zuerst muss ich schon prüfen, ob die von AMD gemachten Angaben halbwegs plausibel erscheinen, oder nicht.
Bevor ich einen Vergleich mit Nvidia anstellen kann.
Und wie gesagt die Hürde die sich durch ADA stell ist nicht allzu hoch die 40% oder sagen wir ,mal schön gerechnet 50% sollten keine allzu große Herausforderung darstellen.
Beziehungsweise ist RDNA2 jetzt schon leicht effizienter als Ampere:
1665940378749.png
 
Zurück