News AMD: KI-Fokus bei RDNA 3, RDNA 4 früher als erwartet?

Doch ist sie und deinen Cherrypickingmist interessiert niemanden.
Du widersprichst dir mit deiner Aussage selbst, wenn du Cherrypickst, um das Gegenteil beweisen zu können und selbst in den Cherrypicks AMD nur die zweite Geige spielt.
Selbst AMD sagt, dass die 4090 konkurrenzlos ist, also fang dich mal.
Deine Aussage hat lediglich für Raytracing Bestand.
Beim Rastern hat die keine Allmacht.
Sie kann in WQHD sogar in Ausnahmen geschlagen werden, das bessere Preis-Leistungsverhältnis hat sie dort so oder so auch nicht.
Ja, es gibt Käufer, die spielen NICHT in UHD, und welche, die spielen KEIN Raytracing.
Wenn die 4090 irgendwo in ein irrsinniges CPU-Limit rennt - und dort dann sogar wegen dem schlechten Treiber schlechter läuft als andere Karten (die ja zwangsweise auch nicht mehr Frames bieten können dürften! aber tun!), dann ist das ein aktuelles Problem, kein Feature, worauf man stolz sein muss.
Fragt euch alle einfach mal, warum AMD da anscheinend ein wohl dosiertes Produkt auf den Markt geschmissen hat, was nahezu genau auf die beste CPU am MArkt zugeschnitten worden ist?
Die kennen ihre Prozessoren ganz genau.
Es würde keinen Sinn machen, da nochmal zwei Grafikblöcke für 25% mehr Power zusätzlich auf den Chip zu setzen, wenn man vorher weiß, dass sogar Zen 4 damit limitiert und man gerade so in UHD einigermaßen die Leistung abrufen kann.
Das wäre alles möglich gewesen, aber es hätte den Preis der Karte und auch den Verbrauch nochmal in die Höhe geschossen, für aber vergleichsweise wenig Leistungsschub.
Sicherlich hat man das alles vorher durchprobiert und dieses als angemessene Lösung empfunden.
NVidia hatte diese Möglichkeit nicht, und die sind damit über das Ziel hinaus geschossen.
Ich bin mir sicher, das man vor allem in FullHD noch locker über 10% Leerlaufleistung mit neuen Prozessoren herauskitzeln kann.
 
man sollte es als eine Reihe von Flaschenhälsen sehen

(1) Die Millisekunden die eine CPU braucht um ein Frame auszuspucken
(2) Die Millisekunden die eine Raster-GPU braucht um ein Frame auszuspucken
(3) Die Millisekunden die eine GPU braucht um mit Raytracing das Bild zu "veredeln"
(4) Die Millisekunden die eine DLSS & Co brauchen um ein Frame hochzurechnen oder zu erfinden.

Wenn eine GPU 60fps eines Spiels rastern kann, dann hat noch niemand genug RTX Power in eine Karte gebaut, damit auch 60 RT Frames dabei rauskommen. Es gibt immer den Hange zu Gunsten von Rasterperformance zu gewichten. Dabei gibt es drei Ansätze.

Nvidia benutzt spezialisierte Kerne für RTX und DLSS. Nvidia will dabei die RTX Kerne eher klein halten und vermarktet die "Gigarays" pro Sekunden inzwischen gar nicht mehr. Nvidia macht das weil die Architektur im Enterprise-KI Sektor gut abschneiden muss und da helfen RTX Kerne nicht.

AMD will keine spezialisierten Kerne, die wollen den einer für alles Kern. AMD hat Sony als riesigen Abnehmer und diese Philosophie passt auch zu Sony, zumindest zu nach-PS3 Ära Sony. Jenseits davon will AMD das Problem mit der Performance einfach wegskalieren. Getreu dem Motto, ab 100fps RT wird alles gut und ob die dann 800 oder 1000 fps hat, wenn man RT abschaltet ist eigentlich egal. Die Hardware macht einfach. Ein sehr Konsolenartiger Ansatz im Sinne von der Software Entwickler sucht sich seinen Sweet-Spot selbst. Vgl. Minimal RT in Farcry 6 oder so.

Intel setzt wie Nvidia auf Spezialkerne nur für RT und ist verflucht gut darin. Wenn eine 330€ GPU mit RT plötzlich mit einer 3080 mithalten kann ist das eine Ansage. Wenn Intel mal einen Treiber für ein Spiel angepasst hat, dann aber hallo, es ist der Treiber in der Breite der Intel schmerzt. Intel wird Nvidia dazu zwingen, dass die Ära der GPUs endet bei denen es von Chips wie dem Lovelace 102 gleichzeitig eine 4090 Home und eine Datacenter Variante gibt.

Unter dem Strich ist AMDs Situation eine direkte Folge ihrer Designphilosophie. Die werden immer mehr Rasterperformance haben als ein Chiphersteller, der Oberfläche für spezialisierte Schaltungen opfert.
 
Einige Poster sollten zum Sonntag lieber in die Kirche gehen.

Die 7900XT ist deutlich zukunftssicherer als die 4070Ti.
und
Die 7900XTX inzwischen deutlich preiswerter als die 4080
Dass RDNA 3 gar nicht so schlecht ist und vielleicht sogar gegenwärtig noch gar nicht am Leistungsoptimum agiert, heißt ja nicht, dass RDNA 3 nicht hinter AMDs Erwartungen liegen dürfte.

Die 7900 XTX verfügt über 87% mehr Speicherbandbreite als die 6900 XT, bei 20% mehr CUs, die zusätzlich noch dual Issue fähig sind und bestimmt 15-20% höher takten. Und dieser riesige Fortschritt auf dem Papier resultiert in derzeit in 30-40% Mehrleistung im Rastern.

Fies gesagt, hätte man ähnliches auch mit einem RDNA 2 in 5nm und mit ebenfalls 384 Bit Speicherinterface erreichen können.

Da kann AMD nicht happy sein.
 
Zuletzt bearbeitet:
Deine Aussage hat lediglich für Raytracing Bestand.
Nö, grundsätzlich.

Beim Rastern hat die keine Allmacht.
Doch.

Sie kann in WQHD sogar in Ausnahmen geschlagen werden, das bessere Preis-Leistungsverhältnis hat sie dort so oder so auch nicht.
Außnahmen bestätigen die Regel und was interessiert es mich, ob die Karte in 1-2 Spielen herankommt, wenn sie in 20-40 anderen 30%+ hinten liegt?
Damit reißt du niemandem vom Hocker, der keine rote Brille trägt und daran ändert euer kindisches rumgerage im Forum auch nichts.

Wenn die 4090 irgendwo in ein irrsinniges CPU-Limit rennt - und dort dann sogar wegen dem schlechten Treiber schlechter läuft als andere Karten (die ja zwangsweise auch nicht mehr Frames bieten können dürften! aber tun!), dann ist das ein aktuelles Problem, kein Feature, worauf man stolz sein muss.
Ihr Roten dreht und wendet euch echt alles zurecht. Jetzt zieht man sich schon am CPU Limit hoch?
Wie verzweifelt muss man sein? :lol::lol:

Fragt euch alle einfach mal, warum AMD da anscheinend ein wohl dosiertes Produkt auf den Markt geschmissen hat, was nahezu genau auf die beste CPU am MArkt zugeschnitten worden ist?
Die kennen ihre Prozessoren ganz genau.
Es geht um die 4090. Was haben AMD CPUs damit zutun? Pures Whataboutism.

Es würde keinen Sinn machen, da nochmal zwei Grafikblöcke für 25% mehr Power zusätzlich auf den Chip zu setzen, wenn man vorher weiß, dass sogar Zen 4 damit limitiert und man gerade so in UHD einigermaßen die Leistung abrufen kann.
"Mehr Leistung ergibt kein Sinn, weil mimimi".
Ausrede und Relativierung. Hauptsache das AMD-Produkt steht nicht schlechter da. Wen interessieren schon Fakten?
Erst nach 4K und mehr Leistung schreien, aber wenns dann vom falschen Hersteller kommt, dann ist es auch nicht recht. :lol:

Fakt ist, das selbst AMD sagt, dass die 4090 nicht erreicht wird und die 7900XTX das Konkurrenzprodukt zur 4080 ist. Die typischen Verdächtigen wie du, Onkel Föhn oder Chatstar können sich das schönreden wie sie Lustig sind, außerhalb eurer Bubble interessiert das niemanden und außerhalb des Forums erst recht nicht.
Es ist auch nicht das erste mal, dass @onkel-foehn das PCGH Team angeht, weil ihm das Ergebnis nicht passt.
 
Zuletzt bearbeitet:
"Dafür müssen die Entwickler der Spiele AMDs Technik adaptieren und nutzen"

Daran wird es (wieder mal) scheitern ... :schief:

MfG Föhn.
 
Nun mit anderen worten man will weiterhin auf fp64 basierenden wavefront setzen.
nachdem man native fp32 Einheiten verbaut hatte mit rdna geht man nen schritt zurück auf gcn
rdna3 hat ein problem bei der Latenz daran würde ich ansetzen da aber multi gcd dies noch weiter in der Auslastung sinken würde auf unter 2 Operationen will man da ne KI die vorhersagen verbessert um damit die auslastung der wavefront zu ermöglichen.
gewagt..... sich so auf Zufall zu verlassen

Den eine KI kann nur soviel dazu beitragen mit welchen Daten diese gefüttert werden. Und genau da liegt der fehler der annahme dies würde bei ner Echtzeitberechnung klappen. Das geht problemlos in vorhandenen Daten die nachbearbeitet sind über matritzen (denoisen) aber ansonsten sehe ich da keinen Möglichkeit aus 3 gcd die Auslastung über 2,1 von 4 Operationen zu kommen
Aktuell ist es so das rdna3 bei maxed 2,37 fach ausgelastet werden kann das liegt aber an der physischen Verbindung und dessen länge
Dies könnte mit 3d packing beendet sein. wird mit n2 eingeführt
amd sollte eher das mcm planar auf geringere Latenz trimmen, womit die Auslastung auf maxed 2,5 steigt.
Das bedingt aber das rdna4 nur ein quasi refresh wird und rdna5 2026 mit n2 auf 3d geht
Dann sind auch mehr alu in einen gcd drin also quasi doppelt 12888 bei gleicher Energie ~350w
das man da plant auf 48 alu pro gcd wird mal drei sehe ich beim interconnect Probleme
Eine Auslastung könnte da von aktuell 17% auf nur noch 5% sinken
Sprich 2,1 fach pro alu der Energiebedarf wird auch zu problem unter 400w wird das nix und der Takt wird bei so einen design auch sinken von 2,5ghz auf nur noch 2,0ghz
amd kann es drehen und wenden wie sie wollen ohne 3d packaging wird das nix
Dann mit KI zu glauben das die Auslastung auf min 17% steigt also 2,34 ist Irrsinn
Die Lösung wird aktuell nur sein beim interposer kürzere Latenzen zu erreichen. Damit man auf min 2,5 kommt.
Dann erst kann man über 3d packaging nachdenken siehe v cache leider kommt das erst 2025 in serie
Bis dahin würde ich rdna3 komplett refreshen mit besseren interposer und mehr Takt. Ab q1 2026 dann rdna4 mit n2 einsteigen ein gcd mit oben drauf verbundenen mcd bzw umgekehrt
mcd basis und darauf gcd
Das wäre interposer= imc und cache rop SI gcd darüber in gruppen aufgeteilt.
Dies würde die Latenzproblem beseitigen und man könnte die gcd sogar stapeln
womit die Auslastung auf etwa 30%-40% gehen kann das wären 2,6-2,8fach
144*64*2,8*2,8=72tf und ab rdna 6 doppelt so viele.
Die KI wird dann nur noch für denoising brauchen was wie wir wissen in Echtzeit aktuell nicht umsetzbar ist.
derzeit wird dies explizit in software auf den shader berechnet und nennt sich bei nvidia dlss
Die tensor kerne machen quasi nix da diese nur in post Prozess genutzt werden können ähnlich wird es amd treffen darum nutze sie auch keine dedizierten tensor kerne.
Zu glauben das mit KI die Auslastung der gcd verbessert kann ist Irrglaube eher wird das für berechnen Erleichterung von denoising an der cpu drawcalls sein.
Womit aber immer noch die cpu eine hohe ipc braucht. Ändert also nix an der theoretischen maxed fp32 Leistung
Ohne 3d wird das nix und das weiß auch amd daher sehe ich rdna4 entweder erst q1 2026 oder rdna3 wird als rdna4 refreshed mit gddr7 und höheren Takt was sehr wahrscheinlich ist.
Und das in n4 geht also von 6144*2,4*2,8 =41tf +14% aus
je nachdem wie sehr gddr7 hilft kann das auch +40% sein. darum vielleicht der Ki Einwand.
real sehe ich da keine chance vor 3d das sich die leistung wesentlich steigern lässt je mehr gcd zusammenkommen desto mehr greift die Latenz und die effizienz der wavefront fällt.
Auch vielleicht der Grund warum mehr als ein gcd kaum Mehrleistung brachte.
 
Die Gräben sind wieder heiß umkämpft und das nur weil mal wieder irgendwer von den Techunternehmen im Marketingauftrag unterwegs ist um Aktionäre zu beruhigen. Schlagworte wie "KI" ziehen da halt, genauso wie "nächste Gen wird alles besser".

Das AMD mit RDNA3 nicht zufrieden ist sollte niemanden verwundern, man bietet ein leicht besseres P/L als Nvidia und trotzdem scheint sich der Marktanteil nicht zu verbessern, wenn dann ist sogar eher das Gegenteil der Fall. Zusätzliches ist man diese Gen deutlich weiter hinter dem Hauptmodell als noch gegen Ampere, womit man bestimmt auch nicht zufrieden sein kann.
Insgesamt ist der Markt dazu noch recht schwach, das dürfte sich 2023 auch nicht wirklich bessern, daher halte ich einen früheren Release von RDNA4 als sonst für unwahrscheinlich. Verträge mit TSMC müssen erfüllt werden und CPU's verkaufen sich auch nicht gerade blendend, RDNA2 ist ja nicht mal vollständig abverkauft, da wird RDNA3 auch noch eine Weile brauchen.

Mal sehen wie sich die kleineren Modelle von RDNA3 im Markt schlagen, AMD hat da ein ähnliches Problem wie Nvidia, da man oben den Preis pro Recheneinheit angezogen hat wird es jetzt schwer gegen das eigene Produktsegment aus der LastGen zu bestehen. Die 6800XT hat mit ihren 4600 Recheneinheiten etwa 15% weniger als die 7900XT und dabei 25% weniger Leistung, das bei einer günstigen Release UVP von 650$. Keine Ahnung wie die 7800XT dagegen konkurrieren soll, mit den gemunkelten 3840 Recheneinheiten dürfte sie ziemlich genau gleichschnell sein wie die 6800XT, kann ja aber kaum günstiger sein, sofern die 7900XT(X) ihre Preise halten sollen.
Nvidia hat die gleichen Probleme, eine 4070/60 im Markt zu platzieren wird nicht einfach.

Die ganze Gen ist mMn einfach lost, ohne direkte Preisanpassungen bei den bereits erschienenen Modellen kann da gar nichts mehr kommen was die Lage grundsätzlich bessert, da würden sich beide Hersteller ihr eigenes Produktsegment kaputt machen. Ein paar Prozente besseres P/L im Vergleich zur LastGen sind halt maximal ernüchternd.
 
Die 7900 XTX verfügt über 87% mehr Speicherbandbreite als die 6900 XT, bei 20% mehr CUs, ...
Fies gesagt, hätte man ähnliches auch mit einem RDNA 2 in 5nm und mit ebenfalls 384 Bit Speicherinterface erreichen können.
Da kann AMD nicht happy sein.
Aber RDNA3 hat weniger IF-Cache.
... ist halt ne ganz andere Architektur

(mal nachgemessen)

Was AMD erwartet, wenn sicherlich selbst auch ähnliche Messungen+Simulationen gemacht wurden,...
who knows

Glaube net, das ein normaler User, bereits mit den ersten Treibern einschätzen kann, obs im Rahmen der
Erwartungen läuft.
 
Ich denke das ist richtig so. Von RDNA 2 auf 3 ca. 2 Jahre. Von RDNA 3 auf 4 vielleicht nur 1 Jahr. So würde ich das jetzt verstehen. Mit den Buchstaben ist natürlich richtig
 
Die kennen ihre Prozessoren ganz genau.
Es würde keinen Sinn machen, da nochmal zwei Grafikblöcke für 25% mehr Power zusätzlich auf den Chip zu setzen, wenn man vorher weiß, dass sogar Zen 4 damit limitiert und man gerade so in UHD einigermaßen die Leistung abrufen kann.
Seems legit, weil Zen 4 zu lahm ist wurde RDNA3 absichtlich verkrüppelt :lol:
 
Hört doch BITTE endlich mal damit auf in jeder AMD News die RTX 4090 als schnellste Karte der Welt, absolut Konkurrenzlos hinzustellen !! Ja, die 4090 ist eine sehr schnelle und gute Karte, aber NICHT überall Konkurrenzlos !!
Deshalb auf die Wortwahl achten : in RT die Schnellste, im Durchschnitt die Schnellste o.ä.

Echt billiges (Bild) Niveau langsam ... :daumen2::-$:nene:

p.s. Ja die Anhänge sind natürlich "Cherry", da die Games/Settings KEIN Mensch auf der Welt hat/spielt. ;-)

MfG Föhn.
Ähm, deine Benchmarks sind aber CPU limitiert, das macht doch gar keinen Sinn? An die 4090 kommt nix ran, das ist einfach so.
 
Boa kann hier auch mal faktenbasiert diskutiert werden?

Also in meinen Augen ist RDNA3 nicht schlecht, aber ich glaube auch das die nicht das liefert was sich AMD vorgestellt hat, sieht man ja auch daran das die Pipelines auf über 3 GHz ausgelegt sind, aber dann explodiert der Stromverbrauch..
Ja bis jetzt hat Nvidia in dieser Generation die Nase vorne, aber:
Bei die meisten Karten haben keinen Sinnvollen Speicherausbau
 
Einige Poster sollten zum Sonntag lieber in die Kirche gehen.

Die 7900XT ist deutlich zukunftssicherer als die 4070Ti.
und
Die 7900XTX inzwischen deutlich preiswerter als die 4080.

Ne titanische 4090 brauchen eeh nur Wenige, ... Es sei den Enthusiasten zum enormen Preis gegönnt.
(auch wenn Diese überproportional bei PCGH vertreten sind)

btw.
Wenn man mal zurückschaut war AMD auch mit den RX 5700XT ganz gut dabei ohne in der Generation die schnellste Graka haben zu müssen.
(am Ende zählt mehrheitlich Bang for Buck)
--> Eigentlich müsste NV wie damals nen preiswerten SuperRefresh bringen. (= ein mue cutten und umlabeln)
Die hat die 4070 TI hat die bessere Rt Leistung , arbeitet effizienter und die 12 GB reichen auch noch in der Zukunft aus.
Von Treiber Support und dem DLSS 3.0 möchte ich erst recht nicht anfangen ,da ist AMD auch als hinter her.
Ich weiß wovon ich spreche, da ich vorher eine Radeon hatte. Permanente abstürze, spulenfiepen ,System Fehler und wurde manchmal einfach nicht erkannt.

Das hat hat einfach kein Spaß gemacht, mit der neuen habe ich als diese Probleme nicht.
Und wie gesagt, der speicher reicht dicke.

Bin auf 3440x 1440 unterwegs und zocke alles auf Anschlag.

AMD sollte endlich mal so ein Produkt liefern wie Nvidia ,meine damit dass ganze komplett Paket.
 
Zuletzt bearbeitet von einem Moderator:
Die hat die 4070 TI hat die bessere Rt Leistung , arbeitet effizienter und die 12 GB reichen auch noch in der Zukunft aus.
Von Treiber Support und dem DLSS 3.0 möchte ich erst recht nicht anfangen ,da ist AMD auch als hinter her.
Ich weiß wovon ich spreche, da ich vorher eine Radeon hatte. Permanente abstürze, spulenfiepen ,System Fehler und wurde manchmal einfach nicht erkannt.

Das hat hat einfach kein Spaß gemacht, mit der neuen habe ich als diese Probleme nicht.
Und wie gesagt, der speicher reicht dicke.

Bin auf 3440x 1440 unterwegs und zocke alles auf Anschlag.

AMD sollte endlich mal so ein Produkt liefern wie Nvidia ,meine damit dass ganze komplett Paket.
Ich verstehe es einfach nicht..
Hab seit ü er 10 Jahren nur AMD Grafikkarten und eigentlich nie besondere Probleme...
Was mache ich denn falsch?

Ps: Die tollen nvidia Treiber, les dir mal hier den Performance tip Artikel für hogwards durch ....
Welcher Treiber funktioniert da besser?
 
Ich verstehe es einfach nicht..
Hab seit ü er 10 Jahren nur AMD Grafikkarten und eigentlich nie besondere Probleme...
Was mache ich denn falsch?

Ps: Die tollen nvidia Treiber, les dir mal hier den Performance tip Artikel für hogwards durch ....
Welcher Treiber funktioniert da besser?
Das verstehe ich auch nicht. Hatte bis jetzt Karten aus beiden Lagern und bei beiden gab es mal nen Treiber Bug. Aber diese Probleme die hier immer mit AMD Treiber gesagt werden, kenne ich nicht. Und aktuell habe ich seit gut 8 Jahren nur AMD Karten und kann da nichts von bestätigen.
 
Ich verstehe es einfach nicht..
Hab seit ü er 10 Jahren nur AMD Grafikkarten und eigentlich nie besondere Probleme...
Was mache ich denn falsch?

Ps: Die tollen nvidia Treiber, les dir mal hier den Performance tip Artikel für hogwards durch ....
Welcher Treiber funktioniert da besser?
Genau wie bei mir: hatte noch nie irgendwelche schwerwiegende Probleme ausser vielleicht mal nen kleinen Crash, der mich auf dem Desktop landen ließ.
 
Genau wie bei mir: hatte noch nie irgendwelche schwerwiegende Probleme ausser vielleicht mal nen kleinen Crash, der mich auf dem Desktop landen ließ.
Ich hatte mit amd und Nvidia in den letzten 14 jahren kaum, bis gar keine Probleme.

Einzig mal zu DX11 Zeiten der Treiberoverhead bei AMD und ein Fehlerhafter Treiber bei Nvidia.
 
Zurück