News AMD Radeon: RDNA 4 ohne High-End-GPU? [Gerücht]

Dieses Märchen wieder, Samsungs 8nm ist schon deutlich stärker als TSMCs 10nm und aktuell sind es eben 4nm gegen 5nm bei TSMC.
Dazu ist AMD nicht so schlecht wie man sie gerne macht, die 4080 ist im Vergleich zur XTX nicht wirklich besser, die Effizienz ist besser und RT ist sie besser, in Sachen Raster zieht die XTX der 4080 meist den Stecker. Rechnet man die 4nm Differenz dazu würde ich in Raster beide Karten auch in Puncto Effizienz auf Augenhöhe sehen, vielleicht noch kleine Vorteile für NV.

Jaja, meine Märchen... Deine Unwahrheiten kenne ich ja schon länger. Bleib mal lieber bei den Fakten. Ich sagte nirgends etwas von TSMC 10nm vs Samsung 8nm, wieso auch? RDNA2 wurde in TSMC 7nm gefertigt.

TSMC N7: Transistor density (MTr/mm2) 91.2–96.5
https://en.wikipedia.org/wiki/7_nm_process

Samsung 8LPP: Transistor density (MTr / mm2) 61.18
https://en.wikipedia.org/wiki/10_nm_process

Ist ja nur eine 1,5 mal so hohe Transistor Dichte. Keine große Sache. Was Du manchmal von Dir gibst...

https://www.igorslab.de/chipgroesse...-in-samsungs-8-nm-lpp-immer-wahrscheinlicher/

„NO EUV. GA102 has taped out. It was based on SAMSUNG 10nm. (You can call it 8nm?lol~~) And the new tegra will use the same process node.“


Ich mache AMD nicht schlecht, ich ordne sie realistisch ein.

1691181710924.png


1691181732776.png

1691181922911.png


Ich sprach von der 4090 und Du kommst mir mit dem XTX vs 4080 Vergleich. Schönes Bait&Switch.
Die 4080 ist etwas teurer, im Raster etwas langsamer, hat dafür die besseren Features, is effizienter und hat deutlich höhere RT Leistung. Alles wie gehabt.

Sag Mal, was kostet eine 4090 und was kostet eine XTX, schau Mal bei PCGH in den P/L Vergleichen wo Nvidia liegt und wo AMD, selbst mit RT kann dort keine NV Karte glänzen, ohne RT wird es erdrutschartig. Nvidia weiß, dass es eben (und ja, so nenne ich einige NVs) genug dumme auf dem Markt gibt die eine 4070 mit mageren 12GB nehmen statt einer 6900XT die genau so teuer, aber eben viel viel schneller ist.
Mir ging es um High End. Eine XTX kostet ca. 1000€. Die 4090 gibt's ab 1600€. Wer 1000€+ für eine Grafikkarte ausgeben kann, der legt vermutlich in den meisten Fällen die 600€ oben drauf für die mit Abstand stärkste und effizienteste Karte.


Sag mal, in welcher Welt lebst du? Die 4080 ist rund 200 EUR teurer als eine XTX und ist lt. PCGH Overall 4% vorne, inkl. der RT Games, wenn man die rausrechnet liegt die XTX im Raster schon Recht deutlich vor einer 4080 zu einem viel günstigeren Preis. Also wo du gleiche Rasterleistung im selben Preissegment einordnest ist absolut grün gedacht, nicht mehr.
Und nein, die 4080 ist beileibe keine schlechte Karte, sondern in der Preisklasse meine bevorzugte Wahl und sogar den Aufpreis auf die XTX wert, aber sicher nicht wegen der Rasterleistung im Vergleich zum Preis, das ist Schwachsinn

Ich sagte ja, UNGEFÄHR gleiche Rasterleistung. Eine 4080 bekommt man ab 1160€. Eine 7900XTX ab ca. 1000€. Die 200€ hat man nicht wenn man eine Karte für 1000€ in Betracht zieht? In welcher Welt lebst Du denn bitte? Und wo ist der Preis der XTX "viel günstiger"?

Davon abgesehen ist das Feature Set der Nvidia Karten, wie Du auch sagtest, deutlich besser und dementsprechend auch etwas wert.
 
Dazu ist AMD nicht so schlecht wie man sie gerne macht, die 4080 ist im Vergleich zur XTX nicht wirklich besser, die Effizienz ist besser und RT ist sie besser, in Sachen Raster zieht die XTX der 4080 meist den Stecker. Rechnet man die 4nm Differenz dazu würde ich in Raster beide Karten auch in Puncto Effizienz auf Augenhöhe sehen, vielleicht noch kleine Vorteile für NV.
Heutzutage muss man allerdings auch das Software-Paket beachten und da ist Nvidia wieder vorn. DLSS bietet - meiner Meinung nach - das bessere Endprodukt. Auf AMD-partnered Spielen kann ich zur Not auch FSR nutzen, weil Nvidia das auch kann. Hätte die 4080 zumindest noch 4 GiB mehr VRAM, hätte die XTX auch keinen eindeutigen VRAM-Vorteil mehr.
 
Und ich lach mal laut.
Mit Ampere (4090, und zwar nur mit dieser) hat NV seit einer Dekade mal wieder die Nase "klar" vorne.
Du weisst dass eine Dekade 10 Jahre sind?

https://www.pcgameshardware.de/Graf...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

1691182797445.png


2080ti (Release September 2018) weit vor Radeon VII (Januar 2019) oder 5700 XT (Juli 2019).

Außerdem ist die 4090 keine Ampere sondern Ada.

Ich lach mal laut über Deinen Kommentar.


Genau wie Dein "Fähnchen" !
Bei Pascal war der Stromverbrauch nicht wichtig und jetzt Dank Ampere rettet Jensi den Planeten.
Zu Pascal Zeiten war ich hier gar nicht im Forum aktiv? Du verwechselst schon wieder Ampere mit Ada, stimmts?

Ampere:
3080 320W TDP
3090 350W TDP

RDNA2:
6800XT 300W TDP
6900XT 300W TDP

In der letzten Gen war AMD definitiv effizienter. Das ist aber dem TSMC 7nm vs Samsung 8nm Prozess geschuldet.
Was wurde da von "euch" drauf rumgehackt...

Jetzt im (fast) gleichen Prozess ist Nvidia bei der Effizienz weit vorne, und kaum einer von "euch" sagt ein Wort dazu.
Es ist auch immer lächerlich anzunehmen, dass jemand sich etwas nicht leisten kann, nur weil man etwas kritisiert.

Du hast keine Kritik geübt, Du hast Leute die sich eine Grafikkarte für 1000€+ kaufen generell als Idioten bezeichnet.
Der Unterschied zwischen Kritik üben und Beleidigungen aussprechen ist Dir bewusst?

Wenn Dir Geld egal wäre, dann würdest Du Dir trotzdem eine Budget GPU kaufen? Kann ja sein, so Leute gibt es, aber nicht viele. Wenn Du so jemand bist - sorry. In Zukunft solltest Du aber vielleicht nicht generelle Beleidungen raushauen, dann gibt's auch kein entsprechendes Feedback dazu...
 
Zuletzt bearbeitet von einem Moderator:
High End ist für Leute außerhalb von Foren wie diesem eh uninteressant.

Eine starke Einstiegs- und Mittelklasse mit gutem P/L Verhältnis bring 90% der Spieler viel mehr
 
Ok, also sind alle die Autos für >50000 Euro Kaufen auch Idioten? Oder Häuser für 200000? Oder ein Abendessen für 100€?
Mist... check hoch 3 und als Bonus noch die richtige Grafikkarte. Voll erwischt, oute mich als kompletter Vollidiot :ugly:
Okay, back2topic:

Gar nicht gut, gefällt mir überhaupt nicht.

Nvidia kann weiterhin machen, was immer sie wollen. 2,5K für eine RTX5090 sind nicht das eigentliche Problem, sie können die xx80/90 Produktlinie ebenfalls schlichtweg einstampfen und KI-profitorientiert nur noch Richtung Business gehen. Dann gibt es von allen drei Akteuren mittelfristig Karten auf Konsolenniveau, zum ehemaligen High-End-Preis, versteht sich. Wofür noch hohe Rasterleistung, KI regelt die FPS mit der neuen Einheitsleistung, egal ob rot, grün oder blau. Brrrrr.
 
Ist eigentlich völlig egal.

Wäre schon zufrieden wenn es einen RTX 5080 Konter im Raster gibt und man leicht über der RTX 4090 im Raytracing landet für weniger als die Hälfte der RTX 5090 im Preis.
 
OK - Nun, was ist mit HighEnd-GPU gemeint? Wenn irgendwas jenseits von 1.000€ gemeint ist, kann ich dazu nur sagen, dass man an den GPUs von NV ab der Titan ganz klar gesehen hat, dass NV schlicht, egal, was es kostet, die größte GPU auf den Markt bringt. (Edit: Und mit 608.5mm² gegenüber 531mm² ist die RTX4090 auch wortwörtlich die größte und fast schon automatisch die leistungsfähigste.)
Wenn AMD eine für 8.000€ baut, baut Nvidia eben eine für 10.000.

Deshalb würde mich das Gerücht nicht wundern, sondern einfach nur bestätigen, was ich schon sehe. Und ich denke, dass auf lange Sicht irgendwann nicht mehr jeder mitzieht. Also z.B. wenn GPUs 5.000€ kosten sollen.

Deshalb tut AMD aktuell gut daran, die GPUs unter 1.000€ zu liefern, die das beste P/L-Verhältnis haben, leise und effizient arbeiten und einen ordentlichen VRAM mitbringen - eben einfach genau so sind, wie sich das der normale Gamer ohne riesen Konto wünscht. Alles darüber sind Käufe von kleinen Minderheiten, die allenfalls für das Marketing gut sind. Oder um es mit Autos auszudrücken: Wenn AMD es schafft, wie VW zu sein, und Nvidia nur noch bei Ferraris gut dasteht, braucht AMD gar nicht erst versuchen, Ferraris zu bauen.

Was ich bezweifle ist die Sache mit GPUs und Tensor-Cores oder NPUs. Ganz ehrlich: Das gehört in eine GPU nicht rein. Die GPU ist in der Regel für Gaming, während die NPU in Zukunft in ganz vielen Anwendungen benötigt werden wird.

Deshalb sehe ich die Zukunft der NPU in der CPU. Auch wenn Nvidia das vermutlich gar nicht gerne hören wird. Der Grund ist einfach, dass die CPU gerade z.B. wenn sie in einem Office oder Gamingrechner verbaut ist, in der Regel nicht die ganze Fläche auf dem PCB ausnutzt. Folglich kann dort in diesen Fällen noch eine zweite Einheit hinzugefügt werden: die NPU.
Also zum Beispiel: Wenn jetzt ein Gamer einen 8-Kern-Prozessor hat, ist die hälfte der Fläche frei. Da könnte künftig eine NPU sitzen.
Bei einem Office-Rechner wäre somit eine CPU mit IGP und NPU denkbar.

Wenn jemand ernsthaft mit Deep Learning etc. arbeiten möchte, und somit NPU-Leistung braucht, die über das hinausgeht, was schon in der CPU sitzt, kann er z.B. einen 16-Kerner(gehen wir von aktuellen verhältnissen aus) mit einem PCIe-NPU-CoProzessor betreiben, der dann eben nicht die unnötigen TFLOPS bereitstellt, wie es eine GPU tut, sondern ausschließlich eine NPU und zwar mit massig Leistung.

Edit2: Und sollte AMD in ihrem Grafiktreiber eine NPU brauchen, können sie auch die aus der CPU nutzen, die nur brach lägen, wenn die GPU auch eine NPU/Tensor Cores hätte.
 
Zuletzt bearbeitet:
Deshalb tut AMD aktuell gut daran, die GPUs unter 1.000€ zu liefern, die das beste P/L-Verhältnis haben, leise und effizient arbeiten und einen ordentlichen VRAM mitbringen - eben einfach genau so sind, wie sich das der normale Gamer ohne riesen Konto wünscht. Alles darüber sind Käufe von kleinen Minderheiten, die allenfalls für das Marketing gut sind. Oder um es mit Autos auszudrücken: Wenn AMD es schafft, wie VW zu sein, und Nvidia nur noch bei Ferraris gut dasteht, braucht AMD gar nicht erst versuchen, Ferraris zu bauen.
Nur sind durchweg alle 4000er Karten effizienter als die vergleichbaren RX7000er Pendants. Bei den anderen Punkten stimme ich zu.

Dass der "normale Gamer" auf DLSS, höhere Raytracing Power, Reflex und Frame Generation verzichten möchte sehe ich allerdings nicht bei dem aktuellen Market-Share von ~80:20.

Was ich bezweifle ist die Sache mit GPUs und Tensor-Cores oder NPUs. Ganz ehrlich: Das gehört in eine GPU nicht rein. Die GPU ist in der Regel für Gaming, während die NPU in Zukunft in ganz vielen Anwendungen benötigt werden wird.
Du willst die Einheiten, die den größten Performance Sprung seit ewigen Zeiten gebracht haben, einfach wegkürzen? Weil die nicht "dahin gehören"???

Raytracing, DLSS und Frame Generation sind zusammen die Gamechanger der letzten 15+ Jahre GPU Geschichte.

Deshalb sehe ich die Zukunft der NPU in der CPU. Auch wenn Nvidia das vermutlich gar nicht gerne hören wird. Der Grund ist einfach, dass die CPU gerade z.B. wenn sie in einem Office oder Gamingrechner verbaut ist, in der Regel nicht die ganze Fläche auf dem PCB ausnutzt. Folglich kann dort in diesen Fällen noch eine zweite Einheit hinzugefügt werden: die NPU.
Also zum Beispiel: Wenn jetzt ein Gamer einen 8-Kern-Prozessor hat, ist die hälfte der Fläche frei. Da könnte künftig eine NPU sitzen.
Bei einem Office-Rechner wäre somit eine CPU mit IGP und NPU denkbar.
Beim Gaming soll die CPU dann die "KI Leistung" bereitstellen? Wie soll das bitte gehen? Die dadurch entstehende Latenz des Todes würde dazu führen dass DLSS und Frame Generation nicht mehr funktionieren.

Wenn jemand ernsthaft mit Deep Learning etc. arbeiten möchte, und somit NPU-Leistung braucht, die über das hinausgeht, was schon in der CPU sitzt, kann er z.B. einen 16-Kerner(gehen wir von aktuellen verhältnissen aus) mit einem PCIe-NPU-CoProzessor betreiben, der dann eben nicht die unnötigen TFLOPS bereitstellt, wie es eine GPU tut, sondern ausschließlich eine NPU und zwar mit massig Leistung.

Edit2: Und sollte AMD in ihrem Grafiktreiber eine NPU brauchen, können sie auch die aus der CPU nutzen, die nur brach lägen, wenn die GPU auch eine NPU/Tensor Cores hätte.
Für professionelle Workloads werden aktuell überall auf der Welt GPUs gekauft. Das hat seine Gründe, z.B. die hochgradig parallelisierte Architektur.

Eine CPU arbeitet dagegen eher seriell. Das sieht man allein schon an der Kernzahl, was sind 64 Threads (bei einer 32 Kern Server CPU mit SMT) gegen 132 Streaming Multiprozessoren die 16.896 Shader beinhalten (H100 SXM5)?

Die Tensor Cores dienen zur Matrix-Multiplikation wie sie beim KI Training gebraucht wird (und womit z.B. DLSS und Frame Generation beschleunigt werden). Sowas wird Intel bereits mit den kommenden Meteor Lake CPUs als VPU Einheit einführen.
 
Dann hier auch noch mal. Welche 4nm Differenz? Sowohl Nvidia als auch AMD fertigen in einem 5nm Prozess. AMD nutzt N5 und Nvidia 4N ;)
Okay, gut das dies hier noch mal, zum x. mal, zur Sprache kommt.
Ich habe jetzt mal ein Bild für euch.
Denn gelesen haben wir ja alle schon, dass Nvidia in 4Nm Produziert, dazu 4nm auf persönliche Bedürfnisse zugeschnitten.
Das sind mindesten 15% Ersparnis (Watt) oder~ 375 Mhz plus.

Takte eine RDNA3 mal 300 Mhz runter, dann braucht die auch keine 240 Watt mehr. eher weniger denke ich.
Dazu sind Jahre an Entwicklung in den angepassten Prozess geflossen.

Ich sehe kaum Nutzer von Grafikkarten, die nicht ohne das Gesicht zu verziehen sagen können, dass Nvidia diese Generation besser ist, aber ich frage mich, warum es für einige so schwer ist anzuerkennen, dass 300 - 400 Mhz und so einige Watt davon an TSMC gehen bzw. Nvidia dafür mit Geld bezahlt.

PS. AMD nutzt den 6Nm und den 5Nm Prozess für die aktuellen Grafikkarten, in einem sogar ziemlich ausgeglichenen Verhältnis und der größte Stromfresser ist in 6nm

PPS: bei den aktuellen Preisen wäre ich gestern fast schwach geworden und hätte mir die folgende Karte geholt. Vor allem seit die Treiber langsam das Auslastungsproblem lösen, wie in Forza z.B.


Ich wünsche eine gute Nacht und ein schönes Wochenende :)
 

Anhänge

  • Screenshot (100).png
    Screenshot (100).png
    1,3 MB · Aufrufe: 30
Zuletzt bearbeitet:
Immer wieder ein heißes und gern gelesenes Thema hier: das Grafikkarten-Highend! ;)
Ich spiel dann morgen erstmal BG3 mit meiner Mittelklasse-Hardware und genieße dafür dann meinen Highend-Kaffee mit Coffein aus Guarana! Die 450g-Packung kostet halt ca. 27 Euro :-X
 
Also wenn wirklich nur Navi43 und Navi44 überleben wäre schön etwas Mau.

Aber vllt war ja wirklich geplant:

Navi41 = 3x Navi43

Navi42 = 2x Navi43

Und das mit den Compute Chiplets oder GCX hat hinten und vorne nicht geklappt.
 
Zuletzt bearbeitet:
Irgendwie ist es auch nachvollziehbar, Denn mit den RX 6000 war man im Grunde absolut konkurrenzfähig. Trotzdem haben fast alle wie blöde Nvidia Karten gekauft. Es waren zuhauf Kommentare zu lesen ala "hoffentlich macht AMD Kampfpreise, damit Nvidia unter Druck kommt und ebenfalls die Preise senken muß und man dann die entsprechende grüne Karte kauft".

Da würde ich aus rein wirtschaftlicher Sicht auch nicht große Summen investieren, um eine entsprechende Karte im HighEnd Segment anbieten zu können, wenn diese dann sowieso kaum gekauft und stattdessen zu den Grünen gegriffen wird.

Scheinbar läuft es für AMD gar nicht so schlecht:

VerkaufsrangGPUUnits soldPreis
1RTX 3060260ab 320 Euro
2RX 6700 XT240ab 399 Euro
3RX 7900 XT230ab 848 Euro
4RX 7900 XTX220ab 1.099 Euro
5RX 6800200ab 529 Euro

Zahlen stammen aus dem Abverkauf von Mindfactory
Quelle:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

In meinen Augen ist die 7900 XTX ebenfalls High End. Auch wenn die 4090 außer Konkurrenz steht ist die XTX eine der derzeit schnellsten Karten und nicht zu verachten. Ich muss zugeben, wenn mir die Kohle super locker sitzen würde, würde ich mir auch eine 4090 kaufen. Sympathiepunkte bekommt (sofern mir das für ein US-Tech Unternehmen möglich ist) bekommt AMD, Intel gefällt mir in der Rolle als Underdog auch.

Wenn nur endlich mal etwas aus Europa oder Deutschland auf den Markt kommen würde aber hierzulande steckt man ja zu tief im dicken Hintern des Wals und bläst z.B. Intel Milliarden an Subventionen rein anstatt selbst etwas auf die Beine zu stellen.
 
Herrlich hier! Ich sitze mit Popcorn auf der Couch und lese höchstmöglich amüsiert mit. Wie im Kindergarten: Meine Sandburg ist größer und schöner als Deine!

Mir ist das vollkommen Wurscht, was sich da oben in den höheren Preisregionen abspielt. Ich habe noch nie mehr Geld als maximal 600 Euro für eine Grafikarte ausgegeben und werde es auch nicht. Mir ist das Schupsen von ein paar Pixeln über den Bildschirm nicht so viel Wert. Da gibt es wichtigere Dinge im Leben.

Ob Nvidia oder AMD ist mir ebenso Wurscht. Ich kaufe das Paket, welches in der von mir bevorzugten Preisregion am attraktivsten erscheint: Gute Leistung bei nativer Darstellung, ausreichend VRAM und runde und problemlos laufende Treiber unter Linux.

Irgendwelche künstlichen Helferchen um ein paar FPS mehr rauszuholen gehen mir am Allerwertesten vorbei, ebenso wie tolle Reflexe in einer Wasserpfütze, welche ich stundenlang bewundere. Wenn ich tolle Reflexe sehen möchte, dann halte ich beim morgendlichen Joggen auf einer Brücke über die Saar und schau zu, wie sich die aufgehende Sonne auf dem Wasser spiegelt. Das finde ich persönlich hundertmal wertvoller und anmutiger als irgendwelche künstlich erzeugten Bilder am Bildschirm.
 
Irgendwie ist es auch nachvollziehbar, Denn mit den RX 6000 war man im Grunde absolut konkurrenzfähig. Trotzdem haben fast alle wie blöde Nvidia Karten gekauft. Es waren zuhauf Kommentare zu lesen ala "hoffentlich macht AMD Kampfpreise, damit Nvidia unter Druck kommt und ebenfalls die Preise senken muß und man dann die entsprechende grüne Karte kauft".
Ja, das liest man leider oft.
Blind kaufende Fans haben sicherlich beide Hersteller. Bei Nvidia gibt manche Nutzer, die auf Features wie Cuda pochen und andere hören nur davon, kaufen und werden es nie nutzen. Ob man es mag oder nicht:
Intelligentes Upscaling ist die Zukunft. FSR hat sich seit Version 2.2 als sehr brauchbar erwiesen, aber auch Nvidia schläft mit DLSS nicht. Verwirrend ist hier, dass es auch DLSS 2 für Turing und Ampere aktuell in Datei-Version 3.1.30 gibt, da der Name der entsprechenden DLL für DLSS 3 sich in einem Buchstaben unterscheidet und beide im Spiele-Ordner parallel existieren. Diese Datei fügt man dann einfach in Cyberpunk oder Metro EE ein. Ich muss sagen, dass es sich gerade für 1440p lohnt, selbst in "balanced".

Alles in allem kommt es darauf an, wie AMD die Aussage meint. Ich befürchte aber weiterhin, dass man selbst mit weiteren Optimierungen in Soft- und Hardware die Idle-Verbräuche beim Multi-Chip-Ansatz nicht ganz die von monolithischen Designs erreichen wird.

Gerade AMD halte ich aber auch für fähig gute Produkte der Performance- bzw. oberen Mittelklasse zu erzeugen.
Demnächst wird der Markt hoffentlich mit den RX 7700, 7700 XT und 7800 positiv überrascht.
Weil sie weniger als Gesamtpaket bieten, ganz einfach. Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung, dafür weniger Raytracing-Leistung, schlechteres Upscaling, kein Reflex, keine Frame Generation, und das bei höherem Stromverbrauch.
Ich bezeichne mich nicht als Fanboy von AMD, würde diese aber unter gleichen Bedingungen immer vorziehen.
Was du schreibst ist die reine Wahrheit. Aus diesem Grund dürfte eine RX 6700 10 GB niemals teurer als eine RTX 3060 sein, somit habe ich eine Nvidia GPU.
Neben der Problematik mit PCIe 3.0 8x, wo Nvidia nun auch aufgesprungen ist, gibt es noch einige weitere Fragen.
Warum hat man den Infinity-Cache der RX 7600 nicht auf 48 MiB erhöht um die Bandbreite auch in 1440p besser kaschieren zu können? Warum kein natives 160 Bit Speicherinterface bei Navi33 für 10 GiB VRAM um zumindest auf dieser Schiene gegen die RTX 4060 punkten zu können?
 
Zuletzt bearbeitet:
Zurück