News Radeon RX 7000: Doch kein RDNA 3 Refresh? [Gerücht]

Wäre jetzt ja auch dämlich von einem Refresh zu sprechen, da dann keiner mehr die aktuellen Karten kaufen würde. Wird vielleicht trotzdem ähnlich wie bei der letzten Generation eine "super" bzw. 50er Serie bei AMD an neuen Karten herauskommen. Wäre auch ein Refresh.
 
das problem ist hat amd den bug zu 100% identifiziert??,
weil bis 5-6 wochen vor launch in der präsentation sind ja noch ganz andere leistungs bzw effizienzwert vorhergesagt worden , von daher wäre ich nicht mal sicher ob die schon wissen was wo schief gelaufen ist.
nur so könnte man sich auf rdna4 konzentrieren ohne den vorangegangenen fehler noch mal zu wiederholen
Was mich an der Theorie hier aber gewaltig stört.
Es macht kein Sinn, klar hätte man durch 3 GHZ noch enorm mehr Rasterleistung bekommen.

Aber in Sachen Raytracing..., da hätte AMD Massiv die neuern RDNA 3 Ray Accelerators ausbauen müssen.
Die 3Ghz hätten die 7900XTX also niemals Raytracing competetiv gemacht.

Ich würde sogar behaupten, selbst wenn das stimmt was Raff sagt:
Weil RDNA 3 sehr größen- und somit kostenoptimiert ist. Das ist ein (massenproduzierter) Testballon für den Chiplet-Ansatz. Laut AMDs Sam Naffziger kann man davon ausgehend schneller neue Dinge implementieren bzw. paaren. Neuer GCD + alte MCDs: geht. Neue MCDs mit doppeltem Cache an altem GCD: geht auch, sogar noch einfacher. Ich bin mir nur nicht sicher, ob die Größe des Trägers in irgendeiner Form limitiert.

MfG
Raff
Dann würden diese Verbesserungen selbst mit 3,0Ghz bei RDNA 3 nicht ausreichen um die 4090 zu schlagen.

Das was man Schlussfolgern könnte wäre nun, das durch den MCD, besser und schnellere günstige Grafikkarten Produzieren kann. Es sagt ja quasi aus wir bleiben bei bestimmten Grafikkarten nehmen RDNA3 GCD und machen den Rest MCD moderner. Performance Boost ca 10-15% ist da die Karte kann von 7800XT zur 8800XT umbenannt werden zusätzlich steigert man den Takt noch ein wenig und hat ne neue Grafikkarte.


Das Löst aber nicht das High End Problem was AMD seit Vega hat - Image durch Performance.

AMD benötigt einfach eine gleichwertige High End GPU und das geht in meinen Augen nur in dem sie die Stream-Prozessoren und somit die Ray Accelerators ausbauen - am besten auf 12.288 mit 192 Ray Accelerators.
(Das würden sie jetzt benötigen - bei der 5090 müsste das sogar nochmal etwas aufgeblähter werden)
Der Rest mit dem Cache ist schön und ist toll und bringt AMD auch Wirtschaftlich etwas aber löst das High End Problem nicht wirklich sondern ist für High End GPUs nur nettes Beiwerk. Die Vorteile liegen hier ehr bei dem was ich vorher dazu gesagt habe.
 
Vllt besteht ja dann die Möglichkeit das AMD etwas neues viel viel eher als gewöhnlich bringt, evtl. im Laufe des Jahres oder Anfang kommenden Jahres und Nvidia sich dann auch mal genötigt fühlt eher was neues rauszuhauen und wir, wenn auch nur für eine Gen, von diesem unsäglichen 2-Jahres-Zyklus wechkommen.
 
Vllt besteht ja dann die Möglichkeit das AMD etwas neues viel viel eher als gewöhnlich bringt, evtl. im Laufe des Jahres oder Anfang kommenden Jahres und Nvidia sich dann auch mal genötigt fühlt eher was neues rauszuhauen und wir, wenn auch nur für eine Gen, von diesem unsäglichen 2-Jahres-Zyklus wechkommen.

Naja, AMD hatte ja schon Probleme noch vor Weihnachten etwas auf den Markt zu bringen. Glaube kaum, dass man dann auf einmal so weit vor Nvidia agieren kann.
 
Vllt besteht ja dann die Möglichkeit das AMD etwas neues viel viel eher als gewöhnlich bringt, evtl. im Laufe des Jahres oder Anfang kommenden Jahres und Nvidia sich dann auch mal genötigt fühlt eher was neues rauszuhauen und wir, wenn auch nur für eine Gen, von diesem unsäglichen 2-Jahres-Zyklus wechkommen.
Das Potential dafür ist da. Extremvariante: Sie müssten sich bei TSMCs N3-Prozess einkaufen, dem GCD einen Shrink verpassen und die MCDs verbessern. Darunter angesiedelt gibt es diverse kostengünstigere Varianten, hier findest du sie gerafft präsentiert:
So richtig Sinn ergibt das das mit dem "abgesagten" Refresh aber nicht. Ich denke, wir werden durchaus Neuerungen an der Spitze sehen. Aber vielleicht nicht beim GCD, sondern nur bei den MCDs (mehr Cache).
Das ist ein (massenproduzierter) Testballon für den Chiplet-Ansatz. Laut AMDs Sam Naffziger kann man davon ausgehend schneller neue Dinge implementieren bzw. paaren. Neuer GCD + alte MCDs: geht. Neue MCDs mit doppeltem Cache an altem GCD: geht auch, sogar noch einfacher. Ich bin mir nur nicht sicher, ob die Größe des Trägers in irgendeiner Form limitiert.
 
Zuletzt bearbeitet:
Was mich an der Theorie hier aber gewaltig stört.
Es macht kein Sinn, klar hätte man durch 3 GHZ noch enorm mehr Rasterleistung bekommen.

Aber in Sachen Raytracing..., da hätte AMD Massiv die neuern RDNA 3 Ray Accelerators ausbauen müssen.
Die 3Ghz hätten die 7900XTX also niemals Raytracing competetiv gemacht.

Ich würde sogar behaupten, selbst wenn das stimmt was Raff sagt:

Dann würden diese Verbesserungen selbst mit 3,0Ghz bei RDNA 3 nicht ausreichen um die 4090 zu schlagen.

Das was man Schlussfolgern könnte wäre nun, das durch den MCD, besser und schnellere günstige Grafikkarten Produzieren kann. Es sagt ja quasi aus wir bleiben bei bestimmten Grafikkarten nehmen RDNA3 GCD und machen den Rest MCD moderner. Performance Boost ca 10-15% ist da die Karte kann von 7800XT zur 8800XT umbenannt werden zusätzlich steigert man den Takt noch ein wenig und hat ne neue Grafikkarte.


Das Löst aber nicht das High End Problem was AMD seit Vega hat - Image durch Performance.

AMD benötigt einfach eine gleichwertige High End GPU und das geht in meinen Augen nur in dem sie die Stream-Prozessoren und somit die Ray Accelerators ausbauen - am besten auf 12.288 mit 192 Ray Accelerators.
(Das würden sie jetzt benötigen - bei der 5090 müsste das sogar nochmal etwas aufgeblähter werden)
Der Rest mit dem Cache ist schön und ist toll und bringt AMD auch Wirtschaftlich etwas aber löst das High End Problem nicht wirklich sondern ist für High End GPUs nur nettes Beiwerk. Die Vorteile liegen hier ehr bei dem was ich vorher dazu gesagt habe.
jein die 3+ghz hätten sicherlich geholfen dazu gepaart mit mehr chache (ala nvidia ) aber sie haben ja schon früh gemerkt das da etwas nicht stimmt ansonsten hätten sie eben den chache (teurer) gleich implementiert .
 
Zumindest wären das die, die mich direkt betreffen und sehr stören würden.^^

Eine echte Wahl hat sich mir aber dieses Mal konkret fast nicht gestellt da ich durch eine sehr günstige Gelegenheit an eine PNY RTX4080 für 1000€ gekommen bin und meine alte 2080 für 300 verkauft habe. Sprich ne neue 4080er für effektiv 700€. Das war halt schon ein no-brainer.

Bedeutet aber auch dass AMD wieder ne ganze Weile raus ist. Meine letzte eigene Radeon ist jetzt echt schon was her (HD7970).
Selbiges hier. Leider! Es ist in den letzten Jahren leider nur für den MM PC im Wohnzimmer eine RX6700 geworden. Ansonsten gab es, trotz AMD Sympathie, auch dieses Mal wieder eine nVidia :(, 4090 angedacht, aber dafür spiele ich VIEL zu wenig und es reicht dann doch wie bei Dir eine 4080.

Off Topic: Fairer Preis bei deiner Ex-2080 :) .... Sehr löblich!
 
Mich schrecken die hohen Verbräuche beim Multimonitoring komplett ab. Seit jeher würde ich aus nostalgischen Gründen für mich lieber AMD/ATI kaufen, aber mittlerweile ist mir persönlich als Nutzer mehrerer Monitore für diverse Zwecke der Verbrauch ohne Last viel zu hoch. Da regel ich die Bildschirme schon adaptiv, nutze im Normalbetrieb jegliche Eco-Einstellungen wenn sinnvoll, weils geht, und dann soll die Karte auf einmal rund 50W mehr brauchen, und ich frage mich seit meiner HD6950, warum nur AMD das gar nicht hinbekommt.
Wo ist eigentlich Eyefinity oder Vergleichbares geblieben, jetzt wo es wenigstens mit den "APU's" bei der 7000er Reihe nochmal von vorne losgeht. Ich könnte mehr als die Standard 4 Grafikanschlüsse gebrauchen, mit verschiedenen Auflösungen und Frequenzen. Bei akzeptablem Verbrauch der Karte. Vielleicht bringt das Chipletdesign ja wirklich mal einen Vorteil, ich bin gespannt!
 
Naja, AMD hatte ja schon Probleme noch vor Weihnachten etwas auf den Markt zu bringen. Glaube kaum, dass man dann auf einmal so weit vor Nvidia agieren kann.
Theoretisch könnten sie das ohne Probleme.

Die Frage ist halt nur was macht man für eine GPU?

So wie es aktuell gebaut wird - hat wie gesagt seine eigenen Vorteile und ist auf jeden Fall Wirtschaftlich und wird AMD profitabel über Wasser halten selbst wenn sie nicht oben mitspielen.

Wäre der AMD GCD deutlich aufgebohrt dann wäre die 4090 auch nicht so weit vorne, die Frage ist welchen Preis hätte AMD dann an diese Grafikkarte schreiben müssen da es eine eigenständige Entwicklung gewesen wäre.
 
Wundertreiber gab es nie und wird es nie geben. Bei nvidia gab's in 10 Jahren die gleichen Steigerungen beim Treiber.
Joar, der DX11 Treiber von AMD letzes Jahr brachte ein paar außerordentliche Steigerungen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Thema Raytracing:
Nv ist hier ungeschlagen! Punkt

1. Wer RT benötigt/will, kommt nicht an NV vorbei
2. Wer ansonsten in RT reinschnuppern möchte und die zweitschnellste GPU haben will, greift zur XTX.
Stimmt, allerdings "nur" was ADA in Form der 4090 (2000 €) anbelangt !
Die 7900XTX ist in RT auf 3090Ti (und 4070Ti) Niveau und das war vor ein paar Monaten (vor Ada) noch die Speerspitze. Und die 6900XT ca. auf 3080 Niveau.
Und das FPS/€ Verhältnis in RT geht auch in "Ordnung".
Also von daher ...

MfG Föhn.
War das nicht schon immer eine AMD-Krankheit?
Gruß T.
Bei Ampere vs. Navi 21 eher nicht.

MfG Föhn.
 

Anhänge

  • RT Index.jpg
    RT Index.jpg
    404 KB · Aufrufe: 56
  • RT Bench.jpg
    RT Bench.jpg
    460 KB · Aufrufe: 31
  • PL Index RT.jpg
    PL Index RT.jpg
    476,1 KB · Aufrufe: 72
Zuletzt bearbeitet von einem Moderator:
Wäre schön wenn da doch noch was kommen würde, bin aber echt deprimiert bzgl dieses posts hier...


Screenshot_152.jpg


MPT war einfach unglaublich was es alles ermöglicht hat bei RDNA 2, die Jungs haben lange dran getüftelt aber anscheinend ist da wohl nix zu machen, für mich persönlich die bis Dato schlechteste "PC/GPU" Nachricht des Jahres, womöglich wird sich das auch nicht ändern gegen Ende 2023... Sooo viel Potential was die User hätten rauskitzeln können ist somit ad acta gelegt...
 
Eine RX 6800 XT für 500 Euro, das würde Nvidia weh tun.
Stimmt !
Allerdings liegt die 6800 (non XT) mit ihren 16 GB nur knapp hinter der XT für ab 579 €.
Dafür bekommst bei NV gerade mal eine 3070 (und in Bälde eine 4060TI) mit 8 GB ...


MfG Föhn.
Ansonsten habe ich irgendwie Vega 32 und 28 "flaschbacks" wenn ich höre das die kleinen RDNA3 Chips ihr Target nicht erreichen sollen :ugly:
Du meinst sicherlich Vega 56 und 64.
Und ob Du´s glaubst oder nicht, aber Vega war ihren "Gegenspielern" (56 vs. 1070, 64 vs. 1080 u. VII vs. 1080Ti) mehr als ebenbürtig. Sie waren günstiger, kamen (wie immer zu spät) und haben gesoffen (hat Ampere aber auch) bzgl. FPS/€.
Deshalb musste AMD anno Dazumal über den Preis "kommen" (wie jetzt dann halt bei dem "Fail" RDNA3 auch) ...

MfG Föhn.
 

Anhänge

  • Vega vs. Pascal.jpg
    Vega vs. Pascal.jpg
    400 KB · Aufrufe: 74
Zuletzt bearbeitet von einem Moderator:

Wenn man keine ... und so. Die beiden Karten wurden vor Release schon gekillt weil einfach ka.cke.
Hab ich bis Dato auch noch nie von gehört/gelesen.
Wären vermutlich dann die "Gegenspieler" der 1060 und 1050 gewesen ?!?
Da reichte allerdings Polaris schon mit der RX 580/590 bzw. RX 570/560 ...

MfG Föhn.
 
Zurück