RDNA3 und RDNA4: RX 7000 soll mindestens 60 Prozent, RDNA4 mindestens weitere 50 Prozent schneller sein

Für eine 4k 120FPS Karte mit RT muss man noch mind 2 Gen warten. Ist ja nischt schwer..die 3090 kann heute schon 4k 60fps und mit 2x50% pro Gen sollten ja 120fps da sein....Aber was soll danach kommen? 8k? Lieber hätte ich 4k 120-240hz 32" OLEDs.....
Ääääh ja, in 2 Gens (=4 Jahre) gehen die HEUTIGEN Spiele dann mit 120 FPS. Die Spiele in 4 Jahren werden aber bessere Grafik und mehr RTRT Effekte haben, also wieder so performen wie die Spiele heute
Naja
Kein Mensch weiß wie schnell RDNA3 wird, trotzdem muß man ja hier jeden Tag "NEWS" liefern.
RDNA3 kommt in einem JAHR auf den Markt! EBENFALLS ZEN4 !
RDNA4 kommt in 2 bis 2,5 Jahren auf den Markt!!! Trotzdem weiß man schon, dass es 50% schneller ist, als RDNA3 !?

Alle "News" zu diesen Themen sollte man NICHT lesen...
Naja doch, AMD und Nvidia wissen sehr wohl wie flott ihre GPUs werden,sie wissen es auch schon ungefähr gegenseitig
Wenn man die RDNA4 Features jetzt schon wissen würde, könnte man die auch in RDNA3 einbauen!
Also, NEIN, die Entwicklung läuft seriell !
nein das ist eben so nicht ganz richtig
Wenn ein Feature noch nicht fertig entwickelt ist, und man weiß bis zur Fertigstellung sinds noch 2 Jahre, kann man es halt nicht mal eben in RDNA 3 integrieren
Ich weiß nicht was ihr habt. Meine alte Vega64 verbrauchte mit uv, 1075mv und etwas oc 1675MHz Chip/1075MHz Ram, bei 250W im Peak. Die 6800XT verbraucht das selbe bei ebenso 1070mv uv und 2450MHz Chip oc sowie 2140MHz Ram oc, bei fast 150% plus Leistung meiner alten Vega64. Denke das wird mit RDNA drei und vier nicht schlechter aussehen. Bei RDNA eins zu zwei waren es mit der 6900XT immerhin 100% von der 5700XT.
Vega und Navi2/RDNA2 sind halt 2 paar Schuhe. Vega war ein Griff ins Klo. 500mm, 300Watt, Spezialram... und am Ende landete man hinter der über 1 Jahr alten Konkurrenz in Form der 1080, die ja noch lange nicht das Topmodell war:300mm, 180W...
Wow, sehr interessant - dann wegelt sich das ja auf wenn der Wafer teurer ist aber dafür mehr brauchbare Chips rauskommen. Ist ja so als wenn ich eine riesige Schokolade kaufe, die ist zwar teurer, aber im Endeffekt habe ich mehr Stücke bzw. auch die gefahr das diese schneller zerbricht und eventuell viele kaputt sind
nein eben nicht: Gerry meinte: in 3nm kannst du die vorher in 5 oder 7nm gefertigten Chips kleiner fertigen- ja.
Aber die Herstelller verbauen wieder mehr Funktionseinheiten, weshalb am Ende wieder gleich große Chips rauskommen
Über AMD habe ich vor Jahren mal gelesen, das es nur ein CPU und nur ein GPU Team gibt.
Das bestätigt auch die Releasecyclen. Nach Zen3 hat man sich zwei Jahre Zeit genommen um Zen4 an den Start zu bekommen. Da Zen4 eine komplette Neuentwicklung gegenüber Zen3 ist, erscheinen mir zwei Jahre realistisch.

Eine CPU zu entwicklen dauert nicht 2 Jahre, eher 5. Mit Zen wurde begonnen da war Bulldozer noch nichtmal am Markt (2011). Dasselbe gilt es für GPUs. Es gibt darüber einen netten Artikel, wie bei AMD der RV770 entstand: obwohl dies nur eine Weiterentwicklung des RV670 darstellte, dauerte das ganze 5 Jahre. Es lief eben parallel
Bei Intel gibt es immer mehrere Teams die parallel arbeiten. Sonst könnte man nicht jedes Jahr eine neue CPU Gen raus bringen.
Schon heute ist glaubhaft, wenn Intel von Meteorlake erzählt. Denn da arbeitet tatsächlich schon ein Team drann. Bei AMD sich über RDNA4 zu unterhalten, macht gar keinen Sinn, die wissen selber noch nichts.
Sorry das STIMMT EINFACH NICHT!! RDNA3 ist fertig, RDNA 4 seit Jahren in R&,D ist nächstes Jahr um diese Zeit fertig entwickelt, geht in Simulation, Tape in/out etc

Klar kann man Simulationen laufen lassen... Aber zwei Jahre in die Zukunft? Ich wette es gibt noch nicht einen Zen4 Prototype !
Doch den gibts schon.
Wie lange AMd für neue Features braucht, kann man ja super sehen. Vor 3 Monaten wurde angekündigt, dass auch AMD das Big-Little Design von Intel übernehmen wird. Und für welche CPU wird das kommen? Zen4? Nein, ZEN5!
Auch Intel hat Jahre dafür gebraucht und es auch erstmal nicht sehr erfolgreich angewandt (Lynnfield)
Zen5 kommt in 3-4 Jahren... Ich gehe wieder von 2 Jahren nach Zen3 aus... So lange braucht halt AMD für eine neue GEN. Und das Big-Little Design ist wieder etwas komplett neues (für AMd)
Zen 5 ist laut AMDs eigenen Angaben seit 2016 oder 17 in Entwicklung....
 
Zuletzt bearbeitet:
Vega und Navi2/RDNA2 sind halt 2 paar Schuhe. Vega war ein Griff ins Klo. 500mm, 300Watt, Spezialram... und am Ende landete man hinter der über 1 Jahr alten Konkurrenz in Form der 1080, die ja noch lange nicht das Topmodell war:300mm, 180W...
Ging mir auch eher um die Diskussion bezüglich des Verbrauchs hier und sah im Grunde mit den Generationen davor, auch vor Vega mit den Fury/390X/290X/7970 Karten nicht wirklich anders oder besser aus. Das Nvidia bei gleicher Leistung meist effizienter war, sollte mittlerweile für jeden ein alter Schuh sein.

Wobei jetzige Ampere Generation da auch bis auf dem letzten Zahnfleisch ausgequetscht wurde und am Limit läuft. Bin mal auf die Refresh's Anfang des Jahres gespannt und frag mich was da bitte noch kommen soll. 3090/3080Super mit 650-750W im Peak ? oder hat man wieder die Speicherkrüppel als erstes rausgehauen, damit die Leutz dann zu den besseren 12/16GB 3070/3080Super Varianten nochmals greifen und ihre alten Karten abstoßen.

Fragen über Fragen. Aber ist im Grunde seit Turing, Nvidia's tolles Geschäftsgebaren, wohl au nix neues und dieses bullshit bingo wird von den Fanboys au noch gefeiert und mit dem Kauf einer 1500-2500€ teuren 3080(Ti)/3090 belohnt. Wobei genauso wie zu Maxwell Zeiten schon, dann doch lieber die 200-300€ drauflegen und für ne GTX980 mit voller Speicheranbindung raushauen.
 
Zuletzt bearbeitet:
Wobei genauso wie zu Maxwell Zeiten schon, dann doch lieber die 200-300€ drauflegen und für ne GTX980 mit voller Speicheranbindung raushauen.
2014 war die GTX 980 nun mal die schnellste Karte...was immer einen gewissen Aufpreis kostet.
Apropo grüne Fanboys...warum haben sich die AMDler nochmal eine Fury X gekauft? Die Karte war langsamer, hatte weniger VRam und kostete genausoviel wie die GTX 980TI. Vom oc Potenzial Fury X vs GTX 980 TI brauchen wir wohl nicht reden.
Und trotzdem fand die Karte ihre Käufer. Warum? Gaming ist ein Hobby. Ich will mich mit meinem Kauf wohlfühlen und da hat für mich reine Rationalität, richtigerweise, wenig Einfluß. Wer BMW zugetan ist wird sich kaum einen Mercedes kaufen, nur weil der ein paar Kilometer schneller fährt. Umgekehrt natürlich genauso.
Sind die Fury X Käufer jetzt Fanboys, oder einfach nur Nutzer die ihrem Hobby fröhnen und sich dabei wohlfühlen weil sie genau das gekauft haben was sie wollten?
Laßt doch die Leute kaufen was sie wollen. Nimmt euch irgendeiner was weg, nur weil er eine andere Marke kauft?
Gebt ihr beim Kauf Geld dazu, oder warum ist es so wichtig was der Nachbar für ein Auto fährt?
 
@DaHell63 Es ging mir bei der zitierten Aussage eher um die Verarsche des Speicherkrüppels GTX970 und der Kommunikation von Nvidia mit seinen Kunden und das dies erst durch entsprechende Tests der Hardwareportale aufgedeckt wurde und danach die Leutz eher bereit waren bis zu 300€ mehr hinzulegen, um eine gescheite GTX980, mit voller Speicheranbindung zu bekommen.

Hatte damals sogar zwei online Kollegen gehabt die ihre GTX970 deshalb verkauft hatten, um sich eine teurere GTX980 zu holen und wo ich mir nur an den Kopf gegriffen hatte das sie diesen Scam mit dem Kauf einer weiteren Nvidia Karte sogar noch unterstützten.
 
Zurück