Geforce RTX 4000: Lovelace angeblich ohne größere Architektur-Änderungen

@BigBoymann meine Aussagen bezogen sich immer auf das selbe Chip-Design als MCM oder monolithisch.
Du hast dann die Gerüchte von RDNA3 und Lovelace als Grundlage dafür genommen, um mir in einem ekelhaften Ton zu sagen, dass ich ja total unrecht hätte.
Es macht auch keinen Sinn, wenn ich zwei unterschiedliche Chip-Designs miteinander Vergleich um herauszufinden, ob MCM oder ein monolithischer Ansatz effizienter ist. Für Vergleiche muss schon eine gemeinsame Basis geschaffen werden und natürlich hast du recht, dass ein monolithischer Chip mehr Verbrauchen kann, wenn er dementsprechend designt wurde und ich mehr Energie reinpumpe, aber das eine hat erstmal nichts mit dem anderen zutun.

Falsch. Das ist einer der Gründe, weshalb sich AMD beim Ryzen zu mehreren Modulen entschieden hat. Es ist flexibler und spart kosten, da sie teildefekte Module nicht wegwerfen, sondern wiederverwerten können und die Chips kleiner ausfallen.

The advantage of using MCM packaging is it allows a manufacturer to use multiple components for modularity and/or to improve yields over a conventional monolithic IC approach.

Höhere Ausbeute = mehr $$$.
 
Zuletzt bearbeitet:
Glaubst du der IO Die auf dem 5900/5950X benötigt keine Energie?
Im HWLuxx hat sich mal jemand die Mühe gemacht und den 12900K mit weniger als 50W laufen lassen

Das stimmt prinzipiell so, allerdings gibt es, egal ob monolithisch oder nicht, 2 unbekannte Punkte bei kommenden Generationen:
1. Es wurden hier Intel und AMD CPUs verglichen, die sich in Verbräuchen ungefähr um 50 und 70 Watt mit 20 Watt Differenz bewegen. Bei der Differenz kommt noch hinzu, daß der I/O-Die noch günstig in 12 nm gefertigt wird.
Inwiefern die Kommunikation zwischen den Modulen bei einer Karte mit 400 Watt Boardpower noch ins Gewicht fällt, kann noch niemand sagen - außer den Ingenieuren vielleicht.

2. Schon die Ampere GPUs von Nvidia laufen über ihrem optimalen, effizienten Takt bezüglich Frames pro Watt, mit Lovelace soll sich die maximale Leistungsaufnahme bei beiden Herstellern laut Gerüchten noch steigern. Auch bei AMD hätte beispielsweise die RX 6700 XT effizienter sein können und selbst eine RTX 3060 kann man ohne Leistungsverlust bei 130 - 140 Watt Boardpower laufen lassen (Afterburner Curve-Editor, Referenztakt @1,08V vs. 1890 MHz Dauerboost @0,91V).
Es wird also, neben der Design-Entscheidung ob MCM oder monolithisch, auch eine Frage des Ausreizens der magischen Kotzgrenze sein. ;):kaffee:
 
Zuletzt bearbeitet:
???

Du argumentierst aber nicht wirklich, weil du diese Gerüchte für voll nimmst??
Sorry, aber du scheinst nicht Willens (ich spreche mal nicht die Frage aus, ob du nicht in der Lage bist) auch nur im Ansatz eine Diskussion mit fachlichem Inhalt zu füllen. Genau dein Beispiel


habe ich beschrieben!

Aber ich habe eben zu deiner Aussage, die faktisch war und keinerlei Spielraum ließ, eine andere Wahrheit geschrieben, nämlich das (auch im CPU Bereich gesehen, bspw. am extremsten im EPCY Sektor), viele Kerne mit wenig Takt um ein vielfaches effizienter zu Werke gehen können, als wenig Kerne mit viel Takt. Das holt jeglichen Interposer wieder ein!


Wo ist jetzt das Problem??? Der 5900X läuft ganz problemlos mit weniger als 50W (unter Vollast) wenn man ihn gescheit einstellt. Es gibt halt Intel Spezialsisten die man besser nicht an AMD lassen sollte. Aber ganz im Ernst, das führt zu nichts. Denn deine Aussage ist Quatsch, weil Infos und Bedingungen fehlen. Ein Epyc 64 Core mit einem Intel 28 Core zu vergleichen macht eben auch keinen Sinn, weil entweder ist der Epyc mehr als doppelt so schnell, oder gleich schnell und wesentlich, also wirklich wesentlich effizienter unterwegs.

Kosten!!!
Ein monolithischer Ansatz verbraucht weniger Chipfläche, der Interposer muss nicht konstruiert werden udn es gibt auch abseits der reinen Belichtung eine Menge Probleme. Daher schreibe ich ja auch recht konsequent davon, dass aus hardwaretechnischer Sicht AMDs RDNA3 (zumindest nach den Gerüchten) vermutlich überlegen sein wird. Das muss aber eben in der Praxis nicht so aussehen, denn es gab schon oft einen nicht gerade geringen Vorteil der Hardware bei AMD/ATI und man konnte nur zu selten Kapital draus schlagen.

Djaaaaaaa

Kosten? Kosten erspart man sich durch MCM wohl eher.

Muhaha
 
Das stimmt prinzipiell so, allerdings gibt es, egal ob monolithisch oder nicht, 2 unbekannte Punkte bei kommenden Generationen:
1. Es wurden hier Intel und AMD CPUs verglichen, die sich in Verbräuchen ungefähr um 50 und 70 Watt mit 20 Watt Differenz bewegen. Bei der Differenz kommt noch hinzu, daß der I/O-Die noch günstig in 12 nm gefertigt wird.
Inwiefern die Kommunikation zwischen den Modulen bei einer Karte mit 400 Watt Boardpower noch ins Gewicht fällt, kann noch niemand sagen - außer den Ingenieuren vielleicht.

2. Schon die Ampere GPUs von Nvidia laufen über ihrem optimalen, effizienten Takt bezüglich Frames pro Watt, mit Lovelace soll sich die maximale Leistungsaufnahme bei beiden Herstellern laut Gerüchten noch steigern. Auch bei AMD hätte beispielsweise die RX 6700 XT effizienter sein können und selbst eine RTX 3060 kann man ohne Leistungsverlust bei 130 - 140 Watt Boardpower laufen lassen (Afterburner Curve-Editor).
Es wird also, neben der Design-Entscheidung ob MCM oder monolithisch, auch eine Frage des Ausreizens der magischen Kotzgrenze sein. ;):kaffee:

Der CPU Vergleich trägt nur begrenzt, da wir bei den CPUs von einigen Dutzend Cores reden, die über den Interconnect kommunizieren müssen, bei einer GPU reden wir über Tausende.
 
Und dann noch gleich der nächste Fehlgriff bei dir, denn nVidia ist hier nicht mehr oder weniger irgendwem ausgeliefert als AMD. *) Der IF-Cache ist schlicht ein L3$, eine zusätzliche Cache-Stufe in der Hierarchie und damit etwas, was jeder, wenn er denn wollte, implementieren könnte. Daran ist nichts neu (außer vielleicht der Name ;-) **) und du scheinst auch komplett AMDs Grund für dessen Implementation zu verpeilen, denn hier geht es im Wesentlichen um eine günstige Fertigung und weniger um zusätzliche Performance, denn die liefert der Cache nicht, sondern der soll lediglich, das herunterskalierte SI kompensieren.
Das ist doch Schwachsinn. AMD hat seit "Ewigkeiten" ein Problem, dass denen die Speicherbandbreite nicht ausgreicht hat. Spätestens RDNA hat das sehr gut vor Auge geführt wie knapp einige der Karten ausgelegt waren und wie viel Performance das in Teilen ausgemacht hat. AMD musste an dieser Stelle etwas machen und der IF-Cache greift genau diese AMD Schwäche auf und löst diese. Das sogar so gut dass der SI kleiner ausfallen darf.
Das du aber für clevere Lösungen kein Auge hast ist ja nichts neues...
Wie gesagt, einen übermäßigen Vorsprung von AMD wird es zweifellos nicht geben, was schlicht daran liegt, dass der Martkkführer das nicht zulassen würde. Und auch wenn es in deiner Welt als AMD-Fan unbegreiflich erscheint, aber nVidia hat ganz offensichtlich noch längst nicht sein GPU-Repertoire ausgeschöpft, wenn das, was bei Consumer-Lovelace bisher durchgesickert ist, zutreffen sollte, d. h. die könnten noch viel mehr, wollen es aus Kosten-/Margen-Gründen jedoch anscheinend nicht und das, weil sie es offensichtlich auch noch nicht nötig haben (ihrer Einschätzung der Konkurrenzsituation zufolge).
Ach ja Marktführer machen nie was falsch, planen immer richtig und wissen auch immer alles besser. Deshalb lief Intels 10nm erst so spät, man wollte sich die Kosten sparen. Und das Nokia in der Versenkung verschwand war auch sicher von langer Hand geplant :klatsch:
Zumal das was du beschreibst nicht zu Nvidias und Jensen Huangs Einstellung passt und auch dem widerspricht was man seit jeher eigentlich durchzieht.


@BigBoymann du argumentierst gerade nicht ernsthaft auf Basis von Gerüchten?
Es sollte doch selbst dir auffallen, wie unsinnig das ist.

Hier mal ein rein theoretisches Beispiel:
Du hast einen monolithischen Chip mit 1000 Transistoren und 500W Verbrauch.
Den teilst du nun in zwei Module à 500 Transistoren mit 250W Verbrauch auf. Jetzt fehlt dir trotzdem noch die Schaltung für die Kommunikation der beiden Chips, die auf die 2x250W noch on top kommt. Du benötigst am Ende also mehr Energie.

Jetzt kannst du natürlich mehr Transistoren unterbringen, aber damit steigt ebenfalls dein Verbrauch.
Ein und das selbe Chipdesign verbraucht als monolithische Variante weniger Energie.
Ich kann auch eine 3080 TI mit 500W+ laufen lassen und bin damit schneller als eine 3090, aber was hat das damit zutun, ob es ein monolithischer Chip ist oder mehrere Module?
Du verkennst den großen Vorteil von Chiplets. Du kannst diese skalieren und erlaubst damit Chips die andernfalls nur extrem teuer oder evtl. garnicht produzierbar sind. Wenn du am Ende einen Chip nimmst der mit 20k Shadern kommt und auf 250W begrenzt wird bist du normalerweise deutlich effizienter unterwegs wie ein Design was nur 10k Shader mitbringen kann und auf 250W begrenzt wird. Wenn der 20k Chip aber nur mit MCM produzierbar ist, dann erübrigt sich die Frage ob der monolith effizienter wäre.
Glaubst du der IO Die auf dem 5900/5950X benötigt keine Energie?
Im HWLuxx hat sich mal jemand die Mühe gemacht und den 12900K mit weniger als 50W laufen lassen. Das selbe hat er mit einem Ryzen mit meheren Modulen versucht und ab einem gewissen Punkt lief Windows nicht mehr sauber, weil nicht genug Energie zur Verfügung stand, um alle 3 Chips zu versorgen.
Mit dem 12900K konnte er noch problemlos Battlefield zocken. Merkste was?
Dann wäre ich baff. Bei mir läuft der 5900x auch deutlich unter 50W noch sauber. Erst in Bereichen um die 30W wirds schwer. Wenn man es aber wirklich darauf anlegen will muss auch der Ramtakt beim Ryzen runter dann säuft der IO-Die auch nicht so krass.
Wenn MCM so viel besser und effizienter ist, wieso haben haben Intel, AMD und Nvidia nicht schon viel früher damit angefangen?
Weil man technologisch nicht so weit war? MCM ist aber auch perse nicht besser. Es hat seine eigenen Nachteile die man auch akzeptieren muss. (Die-Fläche, Packaging etc.)
 
Potenzial hat Ampere alle Male, von 8nm(10nm) auf 5nm sollte in der Effizienz einiges bringen, dazu dann vergleichbare Taktraten wie bei AMD, also über 2,5 GHz , aber ich sehe dennoch eine Lücke die ein größerer bchip füllen Muss
 
Am Ende werden Beide etwas in der normalen Klasse bringen mit 200-300 Watt. Eine 4070 mit 16GB und max. 250 Watt Verbrauch, dabei aber 3090 Leistung. Das wäre z.B. meine Grafikkarte für 500€ UVP.

Ob AMD mit 600 Watt oder Nvidia mit 600 Watt am Ende die Leistungskrone sich holt ist mir völlig egal. Auch die 3090 hat für Gaming schon keinen Sinn ergeben.
 
Du schreibst ja nichts anderes als ger7x's "Schwachsinn". An einem Cache ist aber nichts besonders "cleveres". Das Problem ist, dass ein Cache Geld kostet (Chipfläche und eine höhere Chance für Ausschuss bei der Produktion), deswegen macht man das nur, wenn es sein muss.

Dass man dem ganzen einen fancy Namen gegeben hat, macht es nicht zu etwas herausragend besonderem.
Kann ich dir nicht zustimmen. Effektiv seine schwächen anzugehen, diese zu kompensieren und gleichzeitig daraus Vorteile für das eigene Design zu gewinnen sind für mich letzten Endes clever. Ob die Lösung als solche dann Komplex oder einfach ist, spielt kaum eine Rolle. Es ist immer eine Frage was man aus dem gegebenen macht.
Zumal AMD keinen großen Nachteil in der Die Größe hat.
Diese Vorteile sind vor allem in der Produktion: Du kannst mit einem Chiplet sehr leicht skalieren. Für das Endergebnis (und damit dem Kunden) hast es aber kaum Vorteile als eine Palette diskreter Chipvarianten.

AMD kann damit ggf. billiger produzieren, speziell im HighEnd. Das ist der größte zu erwartende Vorteil für den Kunden.
Du gewinnst in der Produktion flexibilität und kannst damit Kosten senken. Ob ich als Endkunde davon profitiere hängt dann von der Konkurrenzsituation ab.
Generell erwarte ich aber das im Highend Bereich Chips kommen, die sich als monolith nicht sinnvoll umsetzen lassen. Entsprechend andernfalls nie kommen würden.
Aber auch das erkauft man sich mit Latenz-Nachteilen und die sind bei GPUs, denke ich, nochmal um ein Vielfaches kritischer als bei CPUs.
Ich dachte immer Datendurchsatz sei das Problem und Latenzen sind bei GPU weniger kritisch?
Aber generell stimme ich dir zu. AMD muss zeigen, dass dieser Ansatz auch bei GPU funktioniert. Niemand will Mikroruckler bei 300fps :)
 
Du hast dann die Gerüchte von RDNA3 und Lovelace als Grundlage dafür genommen, um mir in einem ekelhaften Ton zu sagen, dass ich ja total unrecht hätte.
Deine Aussage ist und bleibt falsch!
Setzt du deine Rahmenbedingungen wird es sicherlich besser, das hast du aber erst jetzt getan und so bleibt die Zeile deines ersten Posts nunmal!

Falsch. Das ist einer der Gründe, weshalb sich AMD beim Ryzen zu mehreren Modulen entschieden hat. Es ist flexibler und spart kosten, da sie teildefekte Module nicht wegwerfen, sondern wiederverwerten können und die Chips kleiner ausfallen.
Bedingt richtig, ja ein MCM Design kann Vorteile haben, da man mehr funktionierende Chips erhält, das ist korrekt. Insofern habe ich mich in diesem Bereich auch falsch ausgedrückt! Sorry dafür. Aber bei MCM braucht man eben in der Regel mehr Substrat und verbraucht daher vermutlich mehr Chipfläche, weshalb die Kosten dort auch steigen könnten. Was aber wohl in der Regel durch den Yieldfaktor ausgeglichen und umgekehrt wird.

Kosten? Kosten erspart man sich durch MCM wohl eher.
s.o.
 
Deine Aussage ist und bleibt falsch!
Setzt du deine Rahmenbedingungen wird es sicherlich besser, das hast du aber erst jetzt getan und so bleibt die Zeile deines ersten Posts nunmal!
Habe ich ich schon vorher, wie du anhand meines Beispieles siehst: https://extreme.pcgameshardware.de/...ektur-aenderungen.616052/page-4#post-10954919

Wie schon gesagt wäre das auch nicht nötig gewesen, wenn du selbst mal ein bisschen nachdenken würdest. Wenn man etwas miteinander Vergleichen möchte, braucht man eine gemeinsame Basis. Ich bin davon ausgegangen, dass man solche Selbstverständlichkeiten nicht extra erwähnen müsste.
 
braucht man eine gemeinsame Basis.
Das ist korrekt, verwunderlich ist eben nur warum man dann eine Basis nimmt, die die Nachteile eines Prinzips aufgreift und die Stärken des anderen. Sinnvoller wäre hier eine andere Basis, bspw. die effektiven Kosten pro GPU? Ein 800mm² MCM Design wird vermutlich günstiger sein (Yieldfaktor) als ein 600mm² Monodesign? Die beiden Chips kann man dann meines Erachtens nach vergleichen, hinsichtlich Effizienz, maximaler Leistung oder sonstwas. Wenn man aber das MCM Design seiner Stärken beraubt, ist es ja in etwa so, als wenn man einen 919 Hybrid mit einem McLaren 720S vergleicht, zur besseren Vergleichbarkeit beim 919 aber ohne Elektromotorunterstützung fährt.
 
Das ist korrekt, verwunderlich ist eben nur warum man dann eine Basis nimmt, die die Nachteile eines Prinzips aufgreift und die Stärken des anderen.
Weils neu ist und einer der größten Faktoren, in denen sich RDNA3 und Lovelace unterscheiden.
Alle vorherigen Generationen waren monolithisch (okay, es gab Grakas mit zwei GPUs, aber das ist nochmal was anderes). Wir haben jetzt das erste mal MCM vs monolithisch, deswegen hebe ich es hervor.

Ich weiß auch genau, warum du dich daran störst. Es passt dir nicht, weil es negativ für AMD ausgelegt werden kann und du selbst ein AMD System hast. Ist aber ironisch, dass du dich nur daran störst, wenn es gegen AMD geht.
Zu dem unqualifizierten Nonsense von Chatstar und co. gegen Nvidia hast du dich in diesem Thread nicht einmal geäußert. Wortwörtlich angegangen bist du nur mich und das ist pure Doppelmoral.
 
Zuletzt bearbeitet:
@

gerX7a

das clevere an dem "level 3 Cache" von Radeon-Karten ist die sehr gute Hitrate.

Zum Thema MCM, da es jetzt alle Großen nachbauen, sollte doch Bewiesen sein, dass es das überlegene Design ist?!
hast du fsr schon mal probiert? glaub mir da freut man sich nicht wirklich
Dann sollte man wohl lieber einfach aufs Games verzichten, wenn die Leistung nicht reicht?
 
Weils neu ist und einer der größten Faktoren, in denen sich RDNA3 und Lovelace unterscheiden.
Alle vorherigen Generationen waren monolithisch (okay, es gab Grakas mit zwei GPUs, aber das ist nochmal was anderes). Wir haben jetzt das erste mal MCM vs monolithisch, deswegen hebe ich es hervor.

Ich weiß auch genau, warum du dich daran störst. Es passt dir nicht, weil es negativ für AMD ausgelegt werden kann und du selbst ein AMD System hast. Ist aber ironisch, dass du dich nur daran störst, wenn es gegen AMD geht.
Zu dem unqualifizierten Nonsense von Chatstar und co. gegen Nvidia hast du dich in diesem Thread nicht einmal geäußert. Wortwörtlich angegangen bist du nur mich und das ist pure Doppelmoral.
Sei dir versichert, dass ich kein Fanboy bin. Ich habe auch in diesem Thread bereits klar ausgedrückt, dass derzeit für mich eine Nvidia die bessere Wahl ist!

Warum ich mich genau daran störe?

Eigentlich ganz einfach, weil es eben eine absolut einseitige und am Markt so nicht realistische Sichtweise ist! Bzgl. der AMD Fraktion hier könnte ich auch ellenlange Texte verfassen, weiß gar nicht ob ich da immer alle sehe oder einige auf der IgnoreListe hab, aber ich bin da so ehrlich, wenn Nonsens so offensichtlich ist (irgendwo hab ich hier einen 3D Mark Thread gesehen (Link oder so; wo dann die 6900XT die beste sein sollte, obwohl die ersten 50 Plätze an die 3090 gehen, was soll ich da schreiben? Deine Aussage war mit einer gewissen fachlichen Nuance (MCM ineffizienter als Monolith) geschrieben, so dass viele Leser diese Aussage durchaus für plausibel halten könnten, was sie mit Rahmenbedingungen ja auch ist. Das dies der falsche Vergleich ist und die Rahmenbedingungen komplett anders sein werden (mehr Shader und weniger Takt; so zumindest im CPU Bereich recht konsequent umgesetzt) habe ich nun zum Ausdruck gebracht.
Das habe ich dann wohl nicht so gelesen, wie es gemeint war. Dann sorry!
Weils neu ist und einer der größten Faktoren, in denen sich RDNA3 und Lovelace unterscheiden.
Nochmal, weil den Satz verstehe ich falsch oder du verstehst gerade nicht was ich meine.

MCM ist grds. im Gamingbereich eine Neuerung, aber warum sollte man jetzt eine Basis vergleichen, die perfekt auf den Monolithischen Chip zugeschnitten ist? In meinen Augen machen gerade nur zwei Vergleiche wirklich Sinn (weil sie für den Markt interessant sind); man vergleicht zwei GPUs die in der Fertigung das gleiche kosten, ergo Chips die in der selben Preiskategorie antreten sollten oder man vergleich die maximale Leistung der Architektur. Zweiteres wird seit jeher für viel zu viele User als das Interessanteste Merkmal auf dem Markt angesehen, eine 3090 wird ja gemeinhin als "geile" Karte bezeichnet, da sie die meiste Leistung bietet! Der Verbrauch und die Kosten werden dabei (in meinen Augen leider) oft außer Acht gelassen. Ergo bietet der Markt eigentlich einen sinnvollen Vergleich an, maximale Leistung der Architektur!!!

Den Vergleich (der nicht unbedingt pro MCM ausfallen muss) fände ich interessant, auch wenn wie alle Vergleiche hier nur maximale Spekulation stattfindet. Aber MCM hat hier sicherlich den Vorteil, dass man skalieren könnte! So wie es aussieht wird RDNA3 aber nicht skalieren, sondern maximal 2 Chips nutzen, sowie 1 Chip GPUs anbieten. Eine Skalierung ist daher in meinen Augen nicht zu erwarten. Ein weiterer Vorteil der MCM Technik ist dennoch, dass es möglich sein wird (dank der höheren Ausbeute) zwei große Chips zu einem MegaChip zusammenzufassen, während Monolithisch ein sehr großer Chip wird. Man wird also bei dem vorliegenden MCM Design vermutlich mehr Fläche haben, womit man tendenziell mehr Shader verbauen kann, die man um die gleiche Leistung zu erreichen entsprechend niedriger takten könnte (vorausgesetzt die Voraussetzungen mm² je Shader und die Effizienz der Shader wären identisch, was ja schon nicht der Fall ist)
In der Theorie (auch hier habe ich hoffentlich mehr als einmal darauf hingewiesen, dass diese Theorie nur auf Gerüchten basiert und noch dazu mal nicht mit den PS auf der Straße zu tun haben muss), wird ein MCM Design dank mehr Shader, vermutlich in der Lage sein mehr Leistung zu erbringen, man hat mehr Shader und durch die größere Chipfläche mehr Kühlfläche und kann so vermutlich (bei gleicher Effizienz) mehr Energie umsetzen, womit man die Maximalleistung erhöhen kann.

Aber, der Nachteil von MCM und der Vorteil von monolithisch ist ja überhaupt nicht von der Hand zu weisen, der Chip ist zum einen viel einfacher, man spart sich Fläche und Verbrauch für Interposer, man hat viel geringere Latenzen und viel weniger Overhead. Auch da spricht vieles für einen Vorteil bei monolitischer Bauweise.

Der größte Vorteil wird aber in meinen Augen in der Praxisleistung liegen, denn monolitische Chips sind erprobt, die Software darauf programmiert und die Treiber sind darauf schon ausgelegt. Ein MCM Design ist in meinen Augen theoretisch überlegen, wird aber gerade zu Beginn Optimierungsarbeit bedürfen und AMD ist nicht bekannt dafür zum Start hin schon gute bis sehr gute Treiber zu haben. Meine Erwartungen (bzw. Befürchtungen) an die neue Generation, sprich Lovelace und RDNA3 wird daher sein, dass wir auf eine auf dem Papier überlegene, wahrscheinlich sogar deutlich überlegene RDNA3 Architektur stoßen werden, die bei den ersten Benchmarks dann aber katastrophal abschneidet, da weder die Software noch die Treiber vernünftig funktionieren. Zum Ende der Generation würde ich dagegen erwarten, dass AMD immer näher an Lovelace heranrücken wird und ein äußerst unangenehmer Gegner werden wird, mich würde es nicht wundern, wenn RDNA3 besser als jede Generation vorher altern würde (gerade dies war ja oft eine Stärke der AMD Karten, aber sicherlich bedingt durch deren Unfähigkeit von Beginn an gute Treiber zu bringen)
 
Zurück