News Next-Gen-Grafikkarten: Gerüchte zu Radeon RX 8000 ("RDNA 4") und Geforce RTX 5000 ("Blackwell")

also ja ich hoffe das dann auch mehr im unteren bereich bei Nvidia kommt.So nen rtx 5050 oder 5040 wäre durchaus was.Aber es gibt ja noch nicht mal ein 4040 oder sowas,also mache ich mir da nur wenig Hoffnung.Aufgrund der Tatsache das man dank dem Verzicht auf 4k oder WQHD alleine da schon weniger GPU Leistung braucht.Durch das kann man sich ruhig auf die Mittelklasse setzen.Denn so viel Rohleistung braucht man nur in Full HD ja nicht.Klar gibt es auch welche die sich extra für Full HD auch eine rtx 4090 gönnen bzw holen.Aber das sind nur die wenigsten Verrückten die sowas machen.
Ich sehe es auch so,auch in Zukunft werden so teure GPUS sich nur die wenigstens kaufen.Die große masse holt sich kleinere GPUS.
 
Also wenn also was da wieder alles an BS! gequatscht wird... Schau sich einer mal selbst um, als beispiel ein Patent von AMD. Dieses beschreibt eine Art von Global Illumination mit Raytracing. AMD hat sogar schon erste ansätze gezeigt.
Bei der Hardware können wir auch auf facts zugreiffen. Beim Raytracing wird ein neuer ansatz verfolgt. Ich muss kurz schauen, aber das sollte auch öffentlich zugänglich sein. Ja, schaut einfach beim AMD Red Team rein! Bin schon seit Jahren member.

Grüsse!
 
Spannend, dass sich jetzt auch Nvidia hin zu Multi-Chiplet bemüht! Bin mal gespannt, was sie daraus machen!
Eigentlich eher nicht und für den Käufer recht irrelevant, ob die dargebotene Leistung aus einem monolithischen Design oder einem MC-Design kommt. Im Wesentlichen helfen diese Designentscheidungen dem Entwickler die Kosten im Zaum zu halten und das "im Zaum halten" heißt hier nicht, dass es i. V. z. Vorgeneration billiger wird, sondern dass die Kosten für den Entwickler/Hersteller nicht überproportional weitersteigen, denn der Markt will ja immer größere und leistungsfähigere Chips. ;-)
Darüber hinaus bzgl. MCM und nVidia noch einmal grundlegend weniger spannend, da die der GPU-Marktführer sind und an dem Thema schon lange dran sein werden und das vermutlich gar mit ihrem umfangreicheren R&D weiter ausgelotet haben werden als AMD. AMD hat lediglich ihre beschränkteren Möglichkeiten genutzt um frühzeitig ein derartiges Design in den Markt zu bringen, weil sie Kosten/Nutzen-technisch mit nVidia aufgrund ihrer kleinen Marktanteile in dem Segment nicht mehr konkurrieren können. Wenn AMD gekonnt hätte, hätten sie zweifellos für RDNA3 auf ein komplexes MCM-Design verzichtet (und sich damit auch den Hardwarebug und die Leistungsverluste erspart). Beim RDNA4-Design lief es dann anscheinend komplett aus dem Ruder und es blieb ihnen nichts anderes mehr übrig, als das HighEnd-MCM-Design komplett aufzukündigen, da man damit ansonsten nur noch Geld verbrannt hätte, sodass nun davon nur doch die kleineren monolothischen Designs übrig bleiben.

*) Bspw. stellte nVidia schon 2019 auf eine Tech-Konferenz in Tokyo, wenn ich mich recht erinnere, ein HPC-MCM-Design vor, etwas, das jetzt dieses Jahr erst in Form des HPC-Blackwell in den Markt kommen wird. nVidia nutzt MCM erst dann, wenn es für sie einen nennenswerten Vorteil bietet (ebenso wie Intel) oder aber der Konkurenzdruck so hoch wird, dass man um die zusätzliche Komplexität und die damit verbundenen Probleme nicht herum kommt.
Im HPC-Markt ist der Punkt für nVidia wohl gekommen, im Consumer-Segment weiß man es noch nicht gesichert, da der große GB202 der RTX 5090 immer noch monolithisch sein könnte, denn mit dem 3nm-Prozess könnte man noch ausreichend Spielraum haben und AMD konkurriert in den nächsten 2 Jahren in diesem Segment wohl gesichert nicht mehr mit ihnen.

[2,5-fache Leistungssteigerungen?] Mit Raytracing aktiviert
Ob der Faktor tatsächlich so hoch wird, k. A. und nVidia ist da sicherlich für Überraschungen gut, jedoch darf man vermuten, dass die größten Zugewinne, wie hoch die am Ende auch immer tatsächlich ausfallen werden (ich gehe von deutlich weniger aus), vermutlich in Raytracing-lastigen Szenarien (Rohleistung) zu finden sein werden, was schlicht daran liegt, dass RT die Zukunftstechnologie ist. Rasterizing hat schon lange das Ende seiner Entwickung erreicht und man skalierte nur noch die Leistung hoch, was man noch halbwegs begründen und vermarkten konnte, da es in Teilen noch darum ging 4K nativ zu realisieren. Das Ziel ist aber schon längst erreicht und mit modernen Upscaling-Technologien bereits übererfüllt, sodass der visuellen Qualität wieder eine höhere Bedeutung zukommen dürfte, zumal einfache Rasterizer mit immer komplexer werdenden Szenen auch an ihre Grenzen kommen.
AMD geht dieses deutliche Defizit ihrer Architektur nun angeblich mit RDNA4 an, man darf gespannt sein ob ihnen nun ein größerer Sprung und zumindest ein halbwegs erfolgreiches Aufschließen auf den Marktführer gelingen wird, denn u. a. das beträchtliche Raytracing-Defizit dürfte einen signifikanten Anteil daran haben warum AMDs GPU-Marktanteile im MidRange und insbesondere im HighEnd derart gering sind.

Beispielsweise den kürzlich veröffentlichten Zahlen von JPR zu 3Q23 kann man bei den AddInBoards entnehmen, dass AMD hier gerade mal geringe 17 % Gesamtanteil hält, d. h. von 10 verkauften Karten, stammen wengier als 2 Karten von AMD und der Anteil ist im HighEnd gar noch viel geringer und liegt gemäß den zuletzt gewährten Einsichten von JPR (leider wollen die Ihren Report nur gegen teuer Geld verkaufen ;-)) gar im hohen, einstellinge Prozentbereich.
Derartige Marktverhältnisse dürften auch verstehen lassen, warum AMD das große RDNA4-Design schließlich beim Aufkommen nennenswerter Probleme eingestellt hat.


In dem Zuge auch interessant die neueren Gerüchte, dass nVidia die Blackwell-Einführung angeblich auf Anfang 2025 verschoben haben könnte und das Weihnachtsgeschäft nun möglicherweise mit der Markteinführung nicht mehr mitnehmen wird.
Nimmt man nun die etwas später nachgereichten Gerüchte hinzu, dass RDNA4 gar erst in 4Q24 erscheinen wird, würde das nVidia's Planung recht plausible erscheinen lassen, da der Marktdruck für eine frühzeitige Einführung vergleichsweise gering wäre und nVidia somit die wertvollen 3nm-Kapazitäten etwas länger exklusiv für den GB100 nutzen kann.
Zudem könnte es gar sein, dass ein derartiges Vorgehen bei nVidia die Einführung einer RTX 4080 Ti (Super?) auf Basis einen AD102 noch mal wahrscheinlicher macht, d. h. also noch einmal mehr Leistung zu einem besseren P/L-Verhältnis?

Schlecht für AMD ist natürlich, dass sie anscheinend nicht in der Lage sind nVidia's HPC-Präferenzen zumindest für ihr Consumer-Geschäft ausnutzen zu können, indem man RDNA4 mit den kleinen Chips zumindest schon zur Jahresmitte 2024 veröffentlichen konnte.
 
Zuletzt bearbeitet:
Es ist durchaus bemerkenswert, wie die Verbesserungen der Tensorkerne von Generation zu Generation voranschreiten. Der Durchsatz hat sich um ein Vielfaches erhöht, was auf ein erhebliches Potenzial hinweist. Daher lohnt es sich definitiv, diese Entwicklung weiter zu verfolgen.

Schau dir einfach mal die Verbesserungen bei der Tensorleistung zwischen den Top-Modellen von Generation zu Generation an. Es ist wirklich beeindruckend, wie sich die Technologie weiterentwickelt hat. Auch was die Raytracing Leistung angeht.

Die Leistung der Tensorkerne hat sich zwischen der RTX 20 und der RTX 40 Serie um das Zehnfache gesteigert! Bei Raytracing hat sich die Leistung verfünffacht.
2024-02-11_19-03-06.png
 
Zuletzt bearbeitet:
Aha AVI ist also das heutige Standard Codec,dachte da gäbe es keine eindeutige Entwicklung zur Zeit.Aber gut ja es ist beeindruckend,aber nur für die Games wo es auch wirklich nutzen.Ich bin noch einer der nur Games hat mit Raterrizer also dem alten Standard.Das wird ja nicht schlechter wenn das hier alles immer stärker wird oder muss ich mir da in Zukunft für meine alten Games sorgen machen? Weil sagen wir mal ich zocke in 20-30 Jahren noch immer so altes Games,wie sieht es denn dann aus in dieser hinsicht mit den GPUS?
 
Wenn sie damit Rt meinen, ist das schon möglich.

Nein, denn dann hinkt man nicht nur beim RT eine Generation hinterher, sondern auch beim Rastern.
Nur wenn du es mit High-End vergleichst. Das wäre aber nicht der Markt einer solchen Karte.
Wenn es denn so kommt, wäre das ne Brot und Butter Graka wie früher die 70er Reihe von NVidia.
Solide Grakas mit ordentlicher Leistung zu einem soliden Preis. halt sowas wie Polaris.
Ich glaube, da wäre jeder mit zufrieden wenn die so kommen würden.
Dem Enthusiasten reicht das nicht, aber der kauft eh nur Nvidia. Da braucht AMD also nicht fischen. Aber im Bereich der Mainstream Karten, da kann man was reißen.
 
Ok krass wie stark das nach unten geht.Ist aber die Frage dann wie viel wird dann die 5060 an Strom raus hauen.Wird diese schon sparsamer sein als eine 4070 ti? oder der gleiche Stromverbrauch.Dann gäbe es aber keine Optimierung.Wir werden ja sehen wie es weiter gehen wird.
 
Klingt ja schon wieder merkwürdig.

Navi 44 und Navi 48. Davon ist 48 dann der Große, aber im Fall der Fälle wären Navi 42 und Navi 41 dann die ganz Großen? Wurden dann nicht schon 44 und 48 vertauscht/verwechselt? Müsste da dann nicht 44 der Größere sein und nicht 48? :ka:

Bzw. müsste 48 nicht eigentlich 43 sein?
Dem kann ich mich nur anschließen. Die Nomenklatur macht gar keinen Sinn. Bisher war die kleinste Zahl immer der größte Ausbau und plötzlich soll es anders sein? Ne, da stimmt irgendwas noch nicht. Wäre schön, wenn wir da rechtzeitig mehr erfahren.
Davon ab bin ich wirklich auf Blackwell (die quadros, wenn man so will) gespannt und wie dort das Multichiplayout gelöst wurde.
 
Zuletzt bearbeitet:
Nicht wirklich. Zwischen 7900 XT und XTX bedeutet jetzt ne 4070 TI. In der nächsten Generation ist das ne 5060 oder drunter. Der Bereich 5070-5090 ist dann konkurrenzlos.


So wird,s leider kommen . :rolleyes:

Amd wird dann nicht mal mehr bei der nackten Rasterleistung dabei sein , was den allerletzten Kaufgrund für " Sparsame " darstellt .:(

Amd fährt seine Grafik Sparte zusehends an die Wand !

Warum ??:huh:
 
Mit den neuen 3 GiB GDDR7-Speicherchips sind dann 9 GiB an 96 Bit oder 12 GiB an 128 Bit Interface möglich, klingt gewöhnungsbedürftig. :ugly:

Wenn die RX 8800 / Navi 48 auf bis zu 20 GiB GDDR7-VRAM setzt, wäre das auch mit einem kleinen 160 Bit Speicherinterface per Clampshell möglich.
Wenn die Folie mit den Gerüchten so stimmt, könnte DDR7-RAM auch nur für die nun gestrichenen GPUs geplant gewesen sein. Dann sind 128 Bit für Navi 44 und mindestens ein 192 Bit Speicherinterface für Navi 48 mehr als wahrscheinlich.
 
Zuletzt bearbeitet:
Die 5090 brauche ich.
Du brauchst erstmal ne stärkere CPU... deine 4090 wird ja schon von deinem 5900X gebremst!

Ich werde die kommende Gen auch überlegen mir eine 5090 zu kaufen, klar sind die GPUs jetzt sehr teuer geworden, aber wenn man sich mal überlegt das neue GPUs jetzt nur noch alle 24+ Monate kommen, dann kann man das ertragen.
Seit der 2000 Serie ist das ja quasi so, die kam Q3 2018 kostete auf einmal über 1000 Euro für die 2080ti, man hatte dann aber auch über 24 Monate das Flaggschiff bis die 3090 kam.
Vorher war das nicht der Fall, da gab es fast alle 12-18 Monate ein neues Flaggschiff, dann rechnen wir noch die Inflation drauf und das es keine Konkurrenz gibt und schon hat man es sich besser geredet HAHA

Aber mal im ernst, so ist es im Endeffekt.
 
Zuletzt bearbeitet:
Dem kann ich mich nur anschließen. Die Nomenklatur macht gar keinen Sinn. Bisher war die kleinste Zahl immer der größte Ausbau und plötzlich soll es anders sein? Ne, da stimmt irgendwas noch nicht. Wäre schön, wenn wir da rechtzeitig mehr erfahren.
Davon ab bin ich wirklich auf Blackwell (die quadros, wenn man so will) gespannt und wie dort das Multichiplayout gelöst wurde.

Aber warum? Gilt nicht normalerweise, je kleiner die Zahl desto größer der Chip?
Navi 44 war immer als monoilithischer Lowend Chip geplant . Dann wurde Navi41/42/43 gecancelt und als Ersatz wurde Navi48 aufgelegt.

Soll wohl einfach ein doppelter Navi44 sein (also monolithisch aber einfach alls mal 2 genommen.)

Dann hamm se vllt einfach 4 mal 2 genommen und den Navi48 genannt.
 
Wenn AMD sich komplett in der Oberklasse zurückzieht bin ich mal auf die Preise der RTX 5000er gespannt.
Ich denke das eher die Leistung niedriger gesteckt sein wird.

Konkret denke ich dann, das eher eine 5070TI auf 4080 Niveau sein wird, als das der Preis durch die Decke geht.

Das wäre aber dennoch enttäuschend.
Die RX 7900XTX und abwärts. da gibt es eine ordentliche Leistung fürs Geld.
Aber eben nur unter bestimmten Bedingungen.

Wenn man RT mit rein zieht, dann ist AMD ganz sicher nicht am Druck machen, auch nicht pro Euro.


Mit dem meisten anderen gebe ich dir aber Recht.
Auch mit der Leistung pro Euro, wenn man RT ignoriert, oder niedrig priorisiert.
Wir reden hier von einer neuen Generation. Da ist das eigentlich eher am unteren Ende der Erwartungen angesiedelt.
Heutzutage zwar leider nicht mehr aber, das 7900XT Leistung in der nächsten Gen nicht mehr zum 7900XT Preis kommt, sollte wirklich jedem einleuchten. ( vielleicht ein Missverständnis)
Erinnert mich irgendwie an die 5800 Ultra und ihrem Perversen Verbrauch von 50W. Damals hat sich wohl kaum einer gedacht, dass wir mal bei 450W für eine Graka liegen werden.
Aber mal Butter bei die Fische, du glaubst nicht wirklich das die TDP noch deutlich steigt, oder?
Es zeigt sich ja jetzt schon, das es erstens nicht mehr so viel bringt, zweitens nicht mehr sinnvoll Kühlen lässt.

Die Masse der Produkte, auch im Highend Segment wird mit Luftkühlern verkauft. Da ist so langsam der das Ende erreicht, bei 35cm und 4 Slots... ;)

Wenn es wirklich noch hoch kommen sollte, sehen wir vielleicht bis zu 600W TDP, die aber real eher bei 530W liegen wird.

Staubsauger reglementiert, Toaster, TV, Autos, aber Grafikkarten bis 1kw sollen genug Abnehmer finden?

Glaube ich nicht.
In der Gerüchteküche gelten 600W als gesetzt und wenn das mit den Leistungssteigerungen so weiter gehen soll, dann braucht man danach wohl 850W und danach 1050W. Bin gespannt, wie sie das kühlen wollen.

Ja halt gar nicht.

Zu RTX4000 gab es auch schon Schreckensgerüchte das bis zu 600W, oder gar kurz war noch von noch mehr die Rede.
Gerüchte, sind nicht mehr als Gerüchte.
Wie ich mir dachte das schon die 5000er Karten in der Hinterhand da sind.
Wenn Super kommt heißt es der alte Mist muss weg.
Und auf bold hast dann 8 Monate später schon neue Karten.
Das finde ich hat immer einen Beigeschmack.

Fand das mal richtig übel der GTX465@470 95 Grad Spaß und dann kam Fermi 2.0 praktisch gleich danach. Auf einmal wird der Mist nicht mehr zum Herd.
Und taugt sogar was, das war echt richtig verarsch was Nv da brachte.
Die 400er Generation hätten sie damals einfach weglassen sollen.
Quatsch, es gab halt nach ein, bis eineinhalb Jahren einen Refresh und eine GTX570 war eine leicht optimierte GTX480...
Hatte ich damals nämlich auch und so groß waren die Unterschiede nicht.
 
Zuletzt bearbeitet:
halbiert mal das Si bei blackwell von 256bit auf 64bit wird es werden, schließlich steigt die gbps um nen drittel
Was pcie5 angeht wird das schwierig ich ahne was dann passiert
gb207 64bit pcie4 x4 =288gb/s
gb206 96bit pcie5 x8 =432gb/s
gb205 128bit pcie x8 =576gb/s
gb203 192bit pcie5 x16 =864gb/s
gb202 256bit pcie5 x16 =1152gb/s

Den gb207 erwarte ich nur als laptop chip
Den gb206 wird rtx5060 rtx5060ti geben 145mm² chip
Den gb205 als rtx5070 und rtx5080 211mm² chip
Den gb203 als rtx5090 315mm² chip

Da nvidia dennoch den n3e node nutzt muss das SI schrumpfen da führt kein Weg vorbei
Das gute man wird die Effizienzsteigerung von n4x übernehmen was 22% sind und den vollen 15% des nodes an Takt geben macht am ende
3,2ghz beim gb202 für 400w mit 180sm a88 fp32 per sm +-101tf (vs aktuell 63tf der rtx4090)
Das wird aber als titan B geben und vermutlich nach rdna5 Vorstellung irgendwann 2026

Was sicher ist das mit dem gb206 bei 180w als rtx5060 mit dann 48sm geben wird. grob 27tf 15gb 80bit mit dann 360gb/s an pcie 5 x8
amd indes wird rdna4 rx8700 mit 48cu geben etwa 28tf mit 16gb für 390€
Diese wird aber spät erscheinen quasi zum release der rtx5060 in q2 2025 die erwarte ich ab 430€

wie kommen ich auf diese Annahme nun das Si schrumpft nicht mehr und n3 node ist teuer 20000$ per wafer
Ein gb206 dürfte um die 50$ kosten bei grob 145mm² aib bom etwa 35$ marge plus Handel bei Endpreis von 390$ hier etwa 429€ das was auch sein kann das nvidia die chips auf n4x und n3e bringt

Dann sehe es so aus
gb207 n4x grob 156mm² chip ab 30$ bom ab 35$ vram ab 60$ =295$ hier ab 339€ als 60 class grob 17tf pciex8

gb206 n4x grob 272mm² chip ab 54$ sku ab 399$ hier 449€ als 60ti class grob 26tf pciex16

gb205 n4x grob 342mm² chip ab 68$ sku ab 499$ hier etwa 570€ 80class realistisch ab 899$ also hier 999€ grob 50tf pcie5 x16

gb203 n3e grob 315mm² chip ab 115$ sku ab 779$ hier ab 869€ 90class den preis schätze ich ab 1499$ hier also 1889€ grob 80tf

gb202 n3e grob 420mm² chip ab 157$ sku ab 1100$ was so nicht kommen wird also nehme ich an ab 1699$ hier vermutlich ab 2000€ als titan B grob 101tf mit 48gb


Die Optionen gibt es und es hängt leider von amd ab wo das hinläuft
Der Preistreiber ist der vram 36gbps chip werden ab 24gbit ab 15$ sein egal ob der chip in n3 oder n4x produziert wird kann sein das nur der gb207 auf n4 kommt das wäre aber nur dann Sinnvoll wenn das adäquat dem mgpu identisch ist.
Dann wäre rtx5060 mit dem gb206 in n3 node sicher
27tf mit 15gb gddr7 36gbps 432gb/s an pcie5 x8
Wehe einen geht der vram aus. Nicht ideal aber immer noch besser als ne rtx4070 mit nur 12gb
Die rtx5070 erwarte ich mit 60sm und grob 33tf und 18gb bei 576gb/s Satte +30% vs rtx4070 super bei maximal 200w
Ein n4 Aufguss wäre fatal für die Effizienz P/L bringt es auch nix da der vram preis dies zunichte macht.
Gddr6x stattdessen bringt nix da micron die Produktion einstellt
Womit erste Szenario zutreffen wird.

Das die Leistung steigen muss ist allen klar die ps5 pro wird mit 20tf vorlegen ab 500€
Da kann man keine gpu mit nur 16tf für 460€ verkaufen endlich hört der stillstand den es seit 2021 gab auf.
 
Nutze Raytracing auch mit der 4090 nicht aber dafür DLSS umso lieber! Max UV + FPS Limit auf 115 FPS bei 120Hz LG OLED C1 65 Zoll vom Sofa aus und das gaming ist sehr flüssig, wunderschön und extrem effizient, völlig ohne Nachteile! Die next Gen GPUs können dahin, wo der Pfeffer wächst. Wunschlos zufrieden und ein Upgrade auf eine 5090 macht null Sinn, zumal ich die ebenso limitiert wie die 5090 verwenden würde und außerdem auch noch mein PCIe 4.0 auf 5.0 upgraden müsste...nee danke bin mit AM4 & 5800X3D maximal zufrieden :D
 
Zurück