News Gerüchte um RDNA 4: AMD soll die Radeon RX 8900 und Radeon RX 8800 gestrichen haben, oder etwa doch nicht?

AMD hat über Sony 40 Millionen PS5 verkauft und über Microsoft noch einmal 20 Millionen Series X. Jeder Spielehersteller der ein Spiel macht muss sich mit AMD Hardware befassen.

Zum Vergleich, Nvidia hat mit der RTX30 Serie kumulativ bei Steam einen Marktanteil von 24.71%. Auf 120 Millionen Steam Users wären das ca. 30 Millionen verkaufte GPUs. AMD rx6000 kommt bei Steam auf 2,7%, oder ca. 3 Millionen GPUs.

Da würde ich als AMD entweder beten, dass Nvidia mir die Konsolenkunden nicht im Vorbeigehen abknüpft, oder mir die Frage stellen, warum ich noch GPUs herstelle und nicht mehr Konsolenartige PCs. Denn mit GPUs scheint ja jeder ein Problem zu haben, aber mit den anderen Produkten nicht.

Dann sind wir wieder beim THema, ob AMD nicht mit Knebelverträgen die Hände gebunden sind und AMD den Konsolen keine direkte Konkurenz mit richtig guten APUs machen darf. Denn an schlechten AMD Gaming APUs gibt es seit jeher keinen Mangel und sogar in Laptops verlötet AMD unsinnigerweise zwei Chips.
 
Richtig. Das ist der Gedanke dahinter und ein Aspekt vom Chiplet Design
Ahahaha du malst dir die Welt wie es dir gefällt gell? Ja klar die werden da jetzt viele vereinen und das ganze für Lau damit sie wie in deinen Worten „vernichten“ antreten können. Mei muss es den AMD Fans langweilig sein mit den Karten, wenn man solche Fantasien hat.

Ich bin seid Freitag auch zum grünen Lager gewechselt, weil meine 7900xtx einfach nur sauft, heiß wurde, laut war wie ein Flieger und nicht zu vergessen diese tolle Treibersoftware….

AMD sollte sich mal um Basics kümmern anstatt solch Markenting geblubber….

Mich wundert es wirklich nicht das NV solche Preise machen kann, wenn der Hauptkonkurrent AMD es versiebt.
 
Naja nach Gerüchten soll die PS5 Pro ein 8K Performance Modus haben. Die einzigen Grafikkarten die ich es zur Zeit von AMD zutraue 8K bei 30 FPS hinzubekommen sind die 7900er Karten.
Haja klar. Die kleinen Plastik Bomber werden jeden PC zerlegen und das ganze nur für läppische 499€.
Schon eine 3090/Ti zerpflückt vier PS5. Eine 4090 zerpflückt acht PS5. In Bezug auf Teraflop Leistung.
 
Was mich zur ps5 pro bringt
Diese soll 60cu als Vollausbau haben nehmen wir das übliche ab für salvage um kosten zu sparen also dann 54cu
54*64*2,34*2,5ghz um mit der ps5 kompatibel zu bleiben =20,2tf und das mit n3 node
es geistert auch ein monolith rum mit 40cu aber 3,2ghz dann wäre man bei 19,1tf
Hätte aber das problem das der Takt nicht passt und alle ps5 spiele quasi nur um +10% schneller werden da mehr alu als 36 cu beim standard Modell. Da der Takt aktuell bei 2,4ghz liegt
Darum gibt es ja die Annahme das n43 vermutlich 40cu hat bei 3,55ghz laufen könnte aber eben die kompatibiliät spricht dagegen auf den Konsolen. Das lässt sich nicht fixen in den spielen und müsste extra für ps5 pro ein Spiel hin designen.
Das wird nicht passieren daher nehme ich eher an das man 54cu anpeilt das garantiert deutlich schnellere fps ohne beim gpu Takt anpassen zu müssen
Die Mehrleistung durch die Arch geht aber komplett in VR modus somit wäre raster 15tf und vr 20tf
Also min 50% schneller als die ps5 genug um nativ 1440p ohne upscaler zu nutzen was in 4k schnellere fps beschert. Und in vr die min fps auf über 90 zu hieven bei 1080p nativ rendern.
 
Interesannt ist für mich erstmal was die mittelklasse der Rx7.000er generation kommt und ob sie kommt mit welchen specs. und gerade die 8.000er oder 9.000er zimmlich egal is.
 
Hmm, kann man auch anders sehen, die 4080 bspw. ist recht schnell deutlich gesunken.

Aber ich wunder mich ehrlicherweise über die Vermutung, dass AMD kein High End mehr machen will. Jetzt wo man den Anfang im MCM Design machen konnte will man aufhören? Nö, ich glaube einfach das es sehr frühe Gerüchte sind und man bis runter zu Navi44 einfach nur den gleichen GCD nutzen wird, nur in unterschiedlicher Anzahl. Denn es macht eigentlich keinen Sinn, diese Möglichkeit nicht zu nutzen, MCM wird im lukrativen Workstation und Serverbereich eh kommen und wichtig werden, da kann man das auch im Desktop nutzen für ein Haloprodukt
Ja, erst mal ist das nicht mehr als ein Gerücht und man muss abwarten, ob das tatsächlich so kommen wird, sprich d. h. AMD sich (für einige Zeit) aus dem HighEnd verabschiedet mit RDNA4, d. h. man nicht mit einer 5090, 5080 und schlimmstenfalls gar mit einer 5070 Ti konkurrieren wird.
Das einzige dessen man sich gewiss sein kann, dass wenn das tatsächlich so kommen sollten, dass sie das nicht freiwilig machen werden, sondern es irgendwelche internen und/oder externen Zwänge gibt, die diesen Schritt erforderlich bzw. wirtschaftlich notwendig machen, denn ein solcher Schritt wäre keinesfalls mit so etwas vergleichbar, wie dass man nur kein Halo-Produkt a la 5090 Ti-Killer bringen würde, sondern damit würde das ganze ober Marktsegment entfallen, was auch dem Marketing arge Kopfschmerzen bereiten wird/würde.
Gesetz dem Fall, dass hier nicht nur wer was missverstanden hat, unvollständige Informationen verfrüht verarbeitet wurden oder sich gar jemand nur produzieren wollte, wäre bspw. denkbar:
a) Dass man voll auf MCM gesetzt hat für RDNA4, also auch das Verwenden mehrerer (wahrscheinlich zwei) GCDs und dass man die damit verbundenen umfangreichen Probleme nicht hinreichend gelöst bekommen hat für das Releasezeitfenster, sodass man hier nun die Reißleine zieht. (Die gesamte Grafikindustrie arbeitet hieran schon gut ein Jahrzehnt, das ist alles andere als eine Kleinigkeit und erfordert sehr viel R&D und bspw. der Marktführer zögert derartige Designs im Consumer-Segment nicht ohne Grund hinaus, denn technologisch gibt es hier keinen plausiblen Grund anzunehmen, dass AMD denen gegenüber etwas voraus hat. ;-))
b) Ein weiterer Punkt könnte sein, dass AMD auch Fertigungs- bzw. insbesondere Packaging-Kapazitäten-limitiert ist und man sich entschlossen hat, dass ihre sehr überschaubaren GPU-Umsätze es schlicht nicht Wert sind zurzeit Ressourcen beim Packaging und dann noch beim notwendigen R&D für ein derartiges Design zu versenken, während diese Ressourcen dann für margenträchtigere, gefragtere Produkte fehlen.

Aber schlussendlich erst mal abwarten, ob das überhaupt so kommen wird ... vielleicht ist deren HighEnd-Design ja auch ein derart gut gehütetes Geheimnis, dass die Leaker und deren Quellen davon noch nichts mitbekommen haben? Schlussendlich, wenn nVidia tatsächlich erst in 2025 seine NextGen rausbringen wird, hat man auch das Problem, dass frühzeitige Leaks (auch solche, die nicht öffentlich werden) dem Hauptkonkurrenten einen erweiterten Handlungsspielraum einräumen würden, da man wohl schätzungsweise 6 - 9 Monate später veröffentlichen wird, ggf. gar möglicherweise 12 Monate später und wenn man schon in diesem Jahr recht gut abschätzen könnte was bei AMD kommen würde, hätte man mehr als genug Zeit um einen passgenauen Konter zu entwickeln und das käme AMD abermals sehr teuer zu stehen ...
Eine weitere Spielart des "gut gehüteten Geheimnisses" wäre auch, dass wenn nVidia schon meint seinen Release auf 2025 verschieben zu können, man das eigene HighEnd auch erst in 2025 veröffentelichen will. Das würde ihnen zudem etwas mehr Zeit einräumen ein echtes MCM-Design weiter auszuarbeiten, sodass dann vielleicht doch noch echte Multi-GCD-Designs auf Basis von RDNA4 in 2025 erscheinen werden?

Ich denke gar dass beide sich überlegen werden, die alten Gens laufen zu lassen. KI auf 3nm, neue Gamingchips weiterhin auf 5nm. Vielleicht fällt dann ein Gamingableger mit 3nm als Halo ab, aber so ein Szenario halte ich aktuell für mehr als denkbar.
Der Gerüchteküche zufolge "steht das bei nVidia schon fest", da Ada-Next angeblich erst 2025 kommen soll. Das kann schlichte marktstrategische Gründe haben. 3 nm-Kapazitäten werden kurz- bis mittelfristig noch heiß umkämpft und teuer sein, dürften für einen größeren Sprung in der GPU-Entwicklung jedoch unumgänglich sein. Wenn die davon ausgehen, dass AMD kein großer Sprung gelingen wird, könnten die durchaus entscheiden sich die Zeit zu nehmen zumal man kapazitäts- und kostentechnisch dann später besser dasteht, GDDR7 in umfangreichem Maße zur Verfügung steht und man in der Zwischenzeit die gebuchten modernsten Kapazitäten für Hopper und Hopper-Next nutzen kann, die mit gänzlich anderen Margen aufwarten und extrem begehrt sind.
(Als Anmerkung: Diese voraussichtliche Verschiebung würde auch zu dem früheren Gerücht passen, dass nVidia 3 nm erst in 2025 nutzen wird (hier absehbar im Kontext von Consumer-Produkten gemeint). Ob es so kommt ... auch hier abwarten ...)
Darüber hinaus kann AMD nicht bei 5nm bzgl. der GPUs (konkret dem GCD) verbleiben, da sie damit keinen nennenswerten Entwicklungsspielraum hätten. RDNA4 (in 2024) wird absehbar auf einem N4xy-Prozess gefertigt werden, so vielleicht dem N4P? Andernfalls würde RDNA4 von nVidia's NextGen regelrecht überrollt werden und man würde möglicherweise selbst von Intel's Battlemage (in ebenfalls einem N4xy-Prozess) unnötig unter Druck gesetzt werden.
Zudem, irgend eine Art Halo-Produkt wird da nirgends "abfallen", da das, wofür AMD vorerst die modernsten Nodes verwenden wird, weil es die Margen erlauben, CDNA-Produkte sein werden, die nichts mit regulären GPUs gemein haben. Hinzu kommt bzgl. der Workstation-Produkte, dass diese bei AMD aufgrund deren recht geringem Marktanteil eher ein Abfallprodukt der Consumer-Produkte sind und nicht anders herum, d. h. wenn es tatsächlich (vorerst) nichts "Großes" im RDNA4-Portfolio geben sollte, wird es auch keine neuen großen Workstation-Karten/-Updates geben.

Noch eine allgemeine Anmerkung, weil zuvor gelesen und anscheinend den feuchten Träumen einiger Fanboys erwachsen: AMD kann hier nicht "beliebig" viele GCDs koppeln. Einerseits müssen erst mal die umfangreichen designtechnischen Probleme gelöst werden für ein derartiges GPU-Design, andererseits verbraucht mehr aktives Silizium auch mehr Energie, d. h. wenn nVidia beim Top-Chip mit bspw. monolithischen 650 mm2 aufwarten würde, würde AMD diesen sicherlich nicht "zerstören" mit einem 900 mm2-MCM, denn der würde beträchtlich mehr Energie verbrauchen, insbesondere wenn man auch noch i. V. z. nVidia auf einen älteren Prozess zurückgreifen müsste.
 
Ahahaha du malst dir die Welt wie es dir gefällt gell?
Nein nur habe ich Ahnung und du nicht. Das du Fanboy je auch nur eine AMD GPU hattest oder dich damit auseinander gesetzt hast darfst du gerne irgendwem erzählen der dir deine Aussagen glaubt oder den sie interessieren
AMD kann hier nicht "beliebig" viele GCDs koppeln.
Das ist korrekt aber X2 bis X4 sind technisch durchaus machbar.
 
Ich bin seid Freitag auch zum grünen Lager gewechselt, weil meine 7900xtx einfach nur sauft, heiß wurde, laut war wie ein Flieger und nicht zu vergessen diese tolle Treibersoftware….
Ich habe derzeit auch eine Nvidia Grafikkarte, aber ich vermisse da eher den AMD Adrenalin Treiber.

Man braucht keinen Afterburner, die Oberfläche ist optisch ansprechend und reagiert schneller als das altbackene Design bei Nvidia.
Der Idle-Verbrauch ist natürlich zu hoch, keine Frage.
 
Zuletzt bearbeitet:
AMD könnte NVIDIA mit solchen Aussagen in Sicherheit wiegen, damit das grüne Lager sich bei der Entwicklung nicht so anstrengen muss und sich somit mehr aufs Geld verdienen konzentrieren kann.

Leider wird sich NVIDIA nicht so überrumpeln lassen, wie Intel das bei den CPUs hinbekommen hat! :D
Dafür ist jahrelanger Tiefschlaf nötig!
 
Was mich zur ps5 pro bringt
Diese soll 60cu als Vollausbau haben nehmen wir das übliche ab für salvage um kosten zu sparen also dann 54cu
54*64*2,34*2,5ghz um mit der ps5 kompatibel zu bleiben =20,2tf und das mit n3 node
es geistert auch ein monolith rum mit 40cu aber 3,2ghz dann wäre man bei 19,1tf
Hätte aber das problem das der Takt nicht passt und alle ps5 spiele quasi nur um +10% schneller werden da mehr alu als 36 cu beim standard Modell. Da der Takt aktuell bei 2,4ghz liegt
Darum gibt es ja die Annahme das n43 vermutlich 40cu hat bei 3,55ghz laufen könnte aber eben die kompatibiliät spricht dagegen auf den Konsolen. Das lässt sich nicht fixen in den spielen und müsste extra für ps5 pro ein Spiel hin designen.
Das wird nicht passieren daher nehme ich eher an das man 54cu anpeilt das garantiert deutlich schnellere fps ohne beim gpu Takt anpassen zu müssen
Die Mehrleistung durch die Arch geht aber komplett in VR modus somit wäre raster 15tf und vr 20tf
Also min 50% schneller als die ps5 genug um nativ 1440p ohne upscaler zu nutzen was in 4k schnellere fps beschert. Und in vr die min fps auf über 90 zu hieven bei 1080p nativ rendern.
Bei so mächtigen Konsolen, gibt es sowieso keinen Bedarf mehr für Gaming-Grafikkarten für PCs.
 
Ich habe derzeit auch eine Nvidia Grafikkarte, aber ich vermisse da eher den AMD Adrenalin Treiber.
Ich installiere, egal ob AMD oder NVIDIA, immer nur den Treiber selbst. Den ganzen anderen Ballast brauche ich nicht.
Gerade bei AMD gab es bei mir schon mal Probleme mit der Oberfläche beim Spielstart. Ich glaube deshalb beschweren sich viele über den AMD Treiber, was ja eigentlich nicht am Treiber, sondern an der Benutzeroberfläche liegt. Ich für meinen Teil bin mit AMD sehr zufrieden und kann über NVIDIA auch nicht meckern.
 
Bei so mächtigen Konsolen, gibt es sowieso keinen Bedarf mehr für Gaming-Grafikkarten für PCs.
Die meisten User hier im Extrem-Forum jammern über schlechte oder teure Enthusiasten-Hardware, aber die Wahrheit ist, dass eine RTX 3060 oder RX 6700 für die meisten Leute völlig ausreicht.
=)
 
Die meisten User hier im Extrem-Forum jammern über schlechte oder teure Enthusiasten-Hardware, aber die Wahrheit ist, dass eine RTX 3060 oder RX 6700 für die meisten Leute völlig ausreicht.
=)
Nein, das ist heute eher eine Konsole + Handy/Laptop

Bereits die Idee eines Gaming-PCs ist heute die Ausnahme.
 
Am handy spielt man candy crush mehr nicht und an Konsole ist das ne Kostenfrage konsolenspiele sind teuer 70-80€
Und können neuerdings auch nicht mehr gebr verkauft werden. Dank Accountbindung dann lieber PC wo alles flexibel ist. Und man ht quasi spiel geschenkt bei üblichen 20-40€ preisen. man mus nur wissen wo.
Dazu wöchentlich kostenlose spiele. seit etwa 2 Jahren da sammelt sich einiges an.
Das letzte Vollpreispiele aber komplett war atomic heart fürn fuffi und davor dead island 2 für 45€
Das sind ausnahmen üblich zahle ich zwischen 30-40€ mit Tendenz zu 20€. Das nächste wird sicherlich remnant 2 aber das hat Zeit.
 
Und können neuerdings auch nicht mehr gebr verkauft werden. Dank Accountbindung dann lieber PC wo alles flexibel ist.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich habe derzeit auch eine Nvidia Grafikkarte, aber ich vermisse da eher den AMD Adrenalin Treiber.

Man braucht keinen Afterburner, die Oberfläche ist optisch ansprechend und reagiert schneller als das altbackene Design bei Nvidia.

Das man den Afterburner nicht braucht ist sicher ganz gut, aber eigentlich alles nur Gewohnheitssache. Das bringen meiner Meinung auch viele durcheinander mit schlechten und guten Treibern.

In den letzten 13 Jahren die ich jetzt sicher im Kop beantworten kann, hatte ich nur einen echten Treiberfehler. Mit einer GTX970 in Far Cry 3. Neuer Treiber Absturz, alter Treiber super Performance.

Mit der AMD r9 390 hatte ich nur den massiven DX11 Treiber Fps Einbruch auch in FC3.

Ansonsten nur mal eine vereinzelte Textur die ganz extrem selten mal flackert, aber nur absolute Ausnahme und das bei AMD und Nvidia.

Der Idle-Verbrauch ist natürlich zu hoch, keine Frage.
Lässt sich aber auch umgehen, denke ich.
 
Aber ist das nicht das Problem von AMD? Man muss sich reinfuchsen um die Karten optimal zu nutzen. Sehe ich mir hingegen die 4070ti an, die ich für meine Frau und Minecraft RTX gekauft habe, dann musste ich bisher nur einmal den Treiber einstellen und sonst nichts. Ansonsten läuft die Karte einfach und ist im Leerlauf als auch bei Teillast beeindruckend effizient.
 
Bereits die Idee eines Gaming-PCs ist heute die Ausnahme.
Stimmt, wobei der Sohn meines Cousin den umgekehrten Weg gegangen ist. Er wollte die üblichen Titel wie Warzone online zocken. Es durften dabei aber keine monatlichen Gebühren anfallen und er besaß noch keinen Laptop. Es wurde ein Gaming-PC (R5 5600, 32 GB, RX 6700 XT) statt einer PS5 um seine PS4 zu ersetzen.
Lässt sich aber auch umgehen, denke ich.
Es kommt wohl auch auf den genutzten Monitor, Hz und HDMI oder DP an.
 
Zuletzt bearbeitet:
Zurück