News Radeon RX 7000: Doch kein RDNA 3 Refresh? [Gerücht]

Habe gerade die alte Print aufgeschlagen.
Also was soll an der Radeon 7000 so schlecht sein?
Die Leistung stimmt den Werten enstprechend absolut.
Die Karten haben eine extrem schlechte Füllrate im Vergleich zur 4000er Gen.
Man hat zwar eine überlegene FP16-Berechnung, aber die FP32er ist dafür auch wieder ein ganzes Stück schlechter.
Also alles in allem ist die Positionierung im Leistungsindex sicherlich ok und gerechtfertigt.
Und ich denke auch, dass die Leistungsschwankungen im Vergleich zur NVidia Garde eben auch durch diese ganze unterschiedliche Aufbauweise zustande kommt.
Manchmal ist Füllrate durch nichts zu ersetzen, außer durch Füllrate. Etc..
Ihr kennt die Sprüche. So ganz falsch sind die ja nicht.
Man muss sich allerdings fragen, warum die Aufteilung der Hersteller so unterschiedlich geschieht?
Irgendwie muss man doch auch mit den Spieleschmieden kommunizieren und auch Tests machen, was von wem wieviel zukünftig benötigt wird?
Werden die Anforderungen manchmal so unterschiedlich ausgelegt und dementsprechend konstruiert?
Ich würde ja eigentlich vermuten, dass sich Konstruktionen von Herstellern auch gegenseitig was abgucken und langfristig immer mehr ähneln.
Aber diese großen Abweichungen der Einheiten und Leistungsdaten überrrascht mich dann doch ein wenig.
 
Gab mal nen ganz gutes Video von Moores Law is Dead dazu, dass die MSRP der 3080 niemals haltbar gewesen wäre, da die meisten Boardpartner bei einem Verkaufspreis von 699$ Verlust gemacht hätten. Er kam damals auf ca. 719$ kosten, ohne das die Boardpartner selber was draufgeschlagen hätten. Bei der 3060 war es ähnlich lächerlich, 320$ oder was die kosten sollte war utopisch mit 12GB Vram zu der Zeit. Nvidia hat diese Preise mit AMD im Rücken an die Karten gehängt, es war aber wohl jedem klar, dass die Realität alleine durch die Materialkosten anders aussieht (völlig unabhängig vom Mining, das kam dann noch obendrauf).
Ich denke ohne Mining und Corona hätten wir eine ähnliche Situation bei der 3080 wie mit der 2080ti gehabt, die "999$ UVP" der Karte waren ja auch ein schlechter Witz und wurden im Markt eigentlich immer um locker 20% überboten. Kaum jemand würde für Vergleiche mit der 2080ti 1000€ veranschlagen, es gab die Karte schlicht nie für den Preis, warum wird das dann bei der 3080 so oft ins Feld geführt?



Die UVP ist nichts anderes als ein Werbegag heutzutage, das ist maximal noch ein dünner Richtwert, an dem man ablesen kann wie beliebt eine GPU tendenziell ist (oder wie selten).
Die 4080 ist nicht für 700€ zu realisieren und selbst 1000€ sind nur zu erreichen, wenn Nvidia ihre Marge auf den Wert von vor 2 Jahren runterschraubt (was man einem Aktienunternehmen schlecht verkaufen kann) und gleichzeitig die Materialkosten für die völlig überdimensionierten Kühler reduziert werden.
Nvidia ist da nicht der alleinige Preistreiber, TSMC lässt sich seine Monopolstellung bei den führenden Prozessen fürstlich bezahlen, dass sehen wir als Kunden genauso in den Preisen und das nicht nur bei Nvidia sondern auch bei AMD und in Zukunft wohl auch Intel, denn deren GPU's nutzen ebenso TSMC und nicht die eigenen Fabs.

Schlussendlich will ich sicherheitshalber betonen, dass ich keine Preise von 1369€ für die 4080 rechtfertigen oder verteidigen will, die Karte ist definitiv um 200-300€ zu teuer bepreist, das ist wohl als Fakt anzusehen.
Möglich ist das auch nur, weil AMD die gleichen Probleme bei den Materialkosten hat wie Nvidia und seine Margen ebenso über die Jahre ordentlich nach oben angepasst hat. Ein schneller Refresh der 7000er würde wahrscheinlich mehr kosten als bringen, selbst wenn es wirklich einen "Hardwarefehler" gibt, was ich aber für unwahrscheinlich halte. Man wird mit dem arbeiten was man hat und über den Preis angreifen oder halt alternativ wenigstens ordentlich Marge mitnehmen.
Es wird sicherlich wieder den obligatorischen Mid-Gen-Refresh geben, falls es irgendeine Problem mit der Architektur gibt wird der frühestens da angegangen, realistisch sehe ich aber auch da keine großen Änderungen vor RDNA4.
Woher nimmst du denn die Daten? Bei Daten und Zahlen, die ins Netz gestellt werden muss man vorsichtig sein und mehrere Quellen heranziehen, und damit meine ich nicht das eine Quelle eine andere zitiert bzw. deren Meldung übernimmt.
Der teuerste Posten werden die Entwicklungskosten sein, als nächstes kommt der Chip und RAM (RAM war noch nie so günstig und die Hersteller z.B. Samsung stehen da mächtig unter Druck, das senkt den Preis ). Der Rest spielt keine große Rolle. Außerdem muss man alle Karten als Mischkalkulation zusammen beanschlagen, denn die Hauptarbeit in der Entwicklung muss nur einmal geleistet werden und die Bauteile werden für alle Karten in großen Mengen vorbestellt bzw. ausgehandelt, damit man auch besser kalkulieren kann.
Der Endpreis liegt in der Hand des Tech Inventors, also in dem Fall NVIDIA oder auch AMD.
Was Partnerkarten betrifft, kann man nur mutmaßen. Auf alle Fälle werden diese Lizensgebühren bezahlen müssen, was den Gewinn schmälert. Eigene Entwicklungsarbeit, wenn überhaupt, wird nur minimal sein. Inwieweit NVIDIA da Support leistet, kann man auch nur mutmaßen und da wird keiner was zu sagen.
Diejenigen die was sagen, sind dann auch die Partner, die das Handtuch werfen, wie zuletzt EVGA. Ich vermute mal, dass der Gewinn unterm Strich bei den Partnern relativ klein ist und der Hauptposten bei NVIDIA hängenbleibt.
Man kann es drehen und wenden wie mal will, NVIDIA ist für den Endpreis verantwortlich und ich denke, dass NVIDIA sich da ordentlich was in die Tasche steckt.
So läuft das und wenn sich das nicht lohnen würde, weil der Gewinn zu klein ist, von wegen Gejammere wegen zu hoher Kosten, würde weder ein Hersteller damit fortfahren, erst recht nicht als börsennotiertes Unternehmen, noch würde ein Unternehmen, s.h. INTEL gerade in so einen Markt einsteigen.
 
Zuletzt bearbeitet:
Kaum jemand würde für Vergleiche mit der 2080ti 1000€ veranschlagen, es gab die Karte schlicht nie für den Preis, warum wird das dann bei der 3080 so oft ins Feld geführt?
Doch. Da muss man kein Mitleid mit Nvidia haben, wenn sie eine fake UVP angeben sind sie doch selber Schuld wenn es ihnen auf die Füße fällt und ihre neuen Karten dann als dreist teuer verschmäht werden. Wenn Nvidia die Preise veranschlagt hat sollte der Kunde das gleich 3 mal tun.
 
Doch. Da muss man kein Mitleid mit Nvidia haben, wenn sie eine fake UVP angeben sind sie doch selber Schuld wenn es ihnen auf die Füße fällt und ihre neuen Karten dann als dreist teuer verschmäht werden. Wenn Nvidia die Preise veranschlagt hat sollte der Kunde das gleich 3 mal tun.
Das stimmt.
Eine UVP wird schließlich vorher mit viel Gewinn auch für den letzten Kleinhändler durchkalkuliert und Verträge entsprechend ja auch schon abgestimmt.
Wenn das ausgedachte Werte ohne jede Berechnungsgrundlage wären, dann würden wir ja ständig solche Fehlinterpretationen und explosionsartige Preisanhebungen beim Endkunden im Laden erleben.
Oder hat jemand von euch in letzter Zeit einen Fernseher für 5000 Euro statt 2500 Euro im Laden stehen sehen?
Nein? Die kosten sogar nur 1500? Seht ihr?
Da gibt es grundlegend exakt die gleichen Probleme und das ganze Gejammere der Hersteller.
Und trotzdem funktioniert da das System.

Wenn nVidia durch Fehlentscheidungen bei der Konstruktion und Produktion seiner Karten gemacht hat udn man jetzt damit die 110% Preisaufschlag von der 3080 zur 4080 mit bezahlen lassen möchte, dann ist das deren Problem, nicht das der Kunden.
Das steht auch in keinem Verhältnis zu den 50% besserer Leistung, denn die ist normalerweise bei einem Generationswechsel inklusive, da man sonst ja ga keine neue Serie benötigen würde, sondern einfach weite rverkaufen könnte.
Der Herstelelr macht das ja nur, um einen erneuten Kaufanreiz zu bieten und sich auch gegenüber dem Mitbewerber besser zu platzieren und attraktiver zu wirken.

Aber so funktioniert das nicht.
Dann müssen die halt so konstruieren, dass da weniger Materialeinsatz ist (2KG Brocken? 1KG reicht! wieso gibt es 70er Karten mit 1,7kg Gewicht?!?), Chipfläche nicht mehr auf maximale 800mm² ausreizen, nicht das allerteureste Fertigungsverfahren auch noch überteuert einkaufen udn reservieren, etwas weniger Takt und alles und die teuersten Kondensatoren und Klimbim auf den Platinen reduzieren und einsparen.
Also mal alles wieder auf ein sinnvoles Maß zurückschrauben.
Auch wenn dann keine übertriebene und erzwungene Mehrleistung dabei heruasspingt, dann ist das doch egal, solange das für den Kunden bezahlbar bleibt udn er das Ding in den Rechner bekommt und kein neues Neutzteil braucht.
 
Aber bei den Hauptargumenten, steht einfach
Raster 7900 XTX > 4080
RT 4080 > 7900 XTX
Speicher 7900 XTX > 4080
Verbrauch 4080 < 7900 XTX

Das hast du gut auf den Punkt gebracht, was noch wichtig wäre, wäre das Thema Lautstärke, aber dies hängt an den Boardpartner und ist daher anders zu betrachten.

Für die Vapor Chamber Problematik kann man AMD sicher kritisieren.
Dem entgegen steht die Steckerproblematik bei nVidia.
Oder der falsch angegebene Speicher bei der 970er ... (bis heute keine Entschuldigung)
Das ist alles Cherrypicking.

Das braucht dich bei ihm doch nicht zu wundern, da geht es immer nur um Cherrypicking.
Vor allem ist die Vampor Chamber Problematik auch kein Skandal, es war einfach nur ein Fehler des Fertigers. Weil die Vampor Chamber an sich funktioniert ja gut, sofern man die Karte richtig zusammenbaut... Ergo kein Konstruktionsfehler. Aber wenn man halt stänkern möchte, kommt man mit sowas um die Ecke.

Was mich interessieren würde, es wurde immer so viel von einem Bug berichtet, nur nicht was genau der Bug sein soll? Weil Gerüchte gesagt haben die Karte taktet über 3 Ghz und die Gerüchte jetzt wieder gesagt haben aufgrund eines Bugs tun sie das nicht?
Für mich ist das eher SW seitig noch eine sehr große Baustelle, wo sich hoffentlich noch etwas tun wird. An der Stelle kann man sich ja eventuell etwas durch die Xilinx Übernahme erhoffen, denn da war Xilinx alles andere wie schlecht.
 
Wer wirklich das Beste vom Besten will muss jetzt zuschlagen und nicht auf ein Refresh warten. Darf ich vorstellen "NVIDIA RTX 6000 Ada Generation"
"Limit 5 per customer " $6,800.00
Habe mir schon 5 gesichert.
Ran !!!!

Edit: Gleich noch Bridge dazu . SLI lebt. Geil !

 
Zuletzt bearbeitet:
Das hast du gut auf den Punkt gebracht, was noch wichtig wäre, wäre das Thema Lautstärke, aber dies hängt an den Boardpartner und ist daher anders zu betrachten.



Das braucht dich bei ihm doch nicht zu wundern, da geht es immer nur um Cherrypicking.
Vor allem ist die Vampor Chamber Problematik auch kein Skandal, es war einfach nur ein Fehler des Fertigers. Weil die Vampor Chamber an sich funktioniert ja gut, sofern man die Karte richtig zusammenbaut... Ergo kein Konstruktionsfehler. Aber wenn man halt stänkern möchte, kommt man mit sowas um die Ecke.

Was mich interessieren würde, es wurde immer so viel von einem Bug berichtet, nur nicht was genau der Bug sein soll? Weil Gerüchte gesagt haben die Karte taktet über 3 Ghz und die Gerüchte jetzt wieder gesagt haben aufgrund eines Bugs tun sie das nicht?
Für mich ist das eher SW seitig noch eine sehr große Baustelle, wo sich hoffentlich noch etwas tun wird. An der Stelle kann man sich ja eventuell etwas durch die Xilinx Übernahme erhoffen, denn da war Xilinx alles andere wie schlecht.

Cherrypicking ist für mich auch zu sagen, dass die Vapor Chamber kein Skandal ist, nur der Fertiger einen Fehler gemacht hat. Genau damit funktioniert sie eben nicht wie sie soll. Es ist für mich ein Skandal.

Bei Nvidia ist der Stecker auch seitens Nvidia kein Skandal. Alles ist ja toll, weil ja Nvidia nicht Schuld hat. Nur wie wir wissen, ist es hier auch die Schuld der Nutzer, also ergänzend. Bei AMD kann der Nutzer gar nichts falsch machen, hat dennoch Probleme. Die erste Aussage von AMD "ist alles juut, Temps passen", ist überdies auch ein Skandal. Aber ok...das sehen die Fanboys beider Lager immer alles anders oder wissen es besser.

Nungut was will ich sagen...keiner der beiden ist es Wert das man über ihn streitet oder mein man wäre mit Produkt XY besser dranne. Auch bei Nvidia darf das natürlich nicht passieren und ich bin froh dass meine 4090 noch lebt, sonst wäre die nächste halt AMD bis die mich ärgern.

So alles Gute und bleibt gesund.
 
Cherrypicking ist für mich auch zu sagen, dass die Vapor Chamber kein Skandal ist, nur der Fertiger einen Fehler gemacht hat. Genau damit funktioniert sie eben nicht wie sie soll. Es ist für mich ein Skandal.

Nein es ist eben kein Cherrypicking und auch kein Skandal, da es sich hierbei nicht um einen Konstruktionsfehler, sondern um einen Fertigungsfehler des Auftragsfertigers handelt, das ist schon ein himmelweiter Unterschied.

Hätte AMD ein fehlerhaftes Kühldesign abgeliefert ok, dann wäre es ein Skandal aber das haben sie hier nicht, nur haben viele - dich eingeschlossen - offensichtlich nicht die Fähigkeit zu differenzieren.
Oder gab es noch eine Weigerung, die betroffenen Karten auszutauschen? Meines Kenntnisstandes wurde die Charge dann ausgetauscht, aber gegen nähere Infos ist natürlich nichts einzuwenden, wenn du diese hast.
Nur das halt als Skandal hochzukochen, das ist einfach nur rumstänkern.
Ich hatte auch mal eine GTX 980 von EVGA die gefiept hat wie sau, obwohl EVGA damit geworben hatte, extra etwas gegen das Spulenfiepen getan zu haben.... Ging dann halt zurück, so what. Im nachinein bin ich auch froh darüber, denn die GTX 780 Posseidon die ich mir dafür gekauft hatte, war die Beste Graka die ich jemals hatte. Allein das OC Potenzial war ein Traum und sie werkelt sogar immernoch in meinem Zweit PC.

Und mein Beispiel, beschreibt diesen "Skandal" sehr gut, da ein Fertiger aufgrund von mangelnder Produktkontrolle, Einsparungen usw. doch eine große Auswirkung auf die Produktwahnehmung haben kann.

Bei Nvidia ist der Stecker auch seitens Nvidia kein Skandal. Alles ist ja toll, weil ja Nvidia nicht Schuld hat. Nur wie wir wissen, ist es hier auch die Schuld der Nutzer, also ergänzend. Bei AMD kann der Nutzer gar nichts falsch machen, hat dennoch Probleme. Die erste Aussage von AMD "ist alles juut, Temps passen", ist überdies auch ein Skandal. Aber ok...das sehen die Fanboys beider Lager immer alles anders oder wissen es besser.

Das ist eben eine andere Thematik, da es sich um ein Konstruktionsproblem handelt und man es durchaus hätte besser lösen können, damit auch weniger begabte in der Lage sind den Stecker richtig zu stecken...
Aber damit beweist du, dass du nicht differenzieren kannst.

Wenn du bei AMD einen Skandal hinsichtlich der Konstruktion sehen möchtest, kannst du das von mir aus gerne in ihrem Chiplet Ansatz sehen - welcher durchaus viele Vorteile bietet - aktuell aber noch mit einem hohen Stromverbrauch zu kämpfen hat, daher also nicht optimal gelöst/konsruiert ist in der ersten Iteration. Man kann daher nur hoffen, dass diese Problematik in weiteren Iterationen angegangen und gelöst wird.

Man sollte schon immer schauen, wer ist der Hauptverantwortliche und nicht immer alles Pauschal AMD, Nvidia oder intel anzuhängen. Hab ich bei meinem obigen Beispiel mit der GTX 980 auch nicht gemacht, für mich war der Hersteller (in dem Fall EVGA) der Verursacher und nicht Nvidia und ich hab mich indem Fall wieder für Nvidia, nur für einen anderen Hersteller (Asus) entschieden. Deiner Logik nach hätte ich auf Nvidia schimpfen müssen und mir eine Karte von AMD/Ati kaufen müssen, wobei ich jetzt gar nicht wüsste was damals in war, da ich bis 2021 nur Nvidia Karten genutzt habe.
 
Cherrypicking ist für mich auch zu sagen, dass die Vapor Chamber kein Skandal ist, nur der Fertiger einen Fehler gemacht hat. Genau damit funktioniert sie eben nicht wie sie soll. Es ist für mich ein Skandal.
Natürlich ist es ein Skandal, weil so viele Karten betroffen waren und AMD zunächst RMAs abgewiesen und dann dann das ganze runtergespielt hatte. Das ging sogar in Richtung lügen. Und zu guter Letzt haben sie auch noch schön die passive Rolle eingenommen und keine Rückrufaktion gestartet, obwohl die Charge ja bekannt war angeblich.

Wer AMD das so ohne weiteres durchgehen lässt, dem kann man Objektivität in dieser Hinsicht grundsätzlich absprechen.
 
Also ich hab mir eine xfx merc 310 black edition geholt und habe 2 144hz qhd monitore und meine graka braucht 50 -60W im idle also auch nicht wirklich mehr als meine rx6900xt mba muss ich sagen alsio so wie manche sagen mit den 80 bis 100w kann ich mit dieser karte nicht bestätigen...villt hab ich auch nur nen guten chip erwischt ich hatte auch schon in tests davon gelesen
aber ich bin vollkommen zufrieden (dazu muss ich sagen auch nur weil mich raytraycing absulut nicht interessiert) kann ja jeder denken was er will aber für mich ist es die richtige karte mit der ich zufrieden bin und ich bin eher neutral weder nvidia noch amd fanboy
 
ich hab mir eine xfx merc 310 black edition geholt und habe 2 144hz qhd monitore und meine graka braucht 50 -60W im idle

Ich habe seit heute eine Sapphire RX 7900 XT Ref. Design und verbrauche im Idle im Dual Monitor Betrieb (UHD 60 Hz, WQHD 144 Hz) 43 W (lt. GPU-Z und Adrenalin).
Was ich aber gut finde ist das ich bei Division 2 und New World mit den höchsten Einstellungen bei WQHD mit Radeon Chill on (75 FPS - 144 FPS) und ohne UV (Automatisches Tuning auf Standard) in diesen beiden Spielen bei ca. 200 Watt bin.
Bei "KENA Bridge of Spirits" waren es bei Ultra Einstellungen zw. 200 und 250 Watt außer bei Cutscenes, da ging es runter bis auf 90 Watt.
Nach all dem negativen was ich zum Stromverbrauch zu den 7900 Karten gelesen habe, war das schon eine ziemlich positive Überraschung.

PS: Wobei ich anmerken möchte das die RX 5700 XT Red Devil was ich vorher hatte im Idle ca. 35 Watt gezogen hat bei dem gleichen Monitorsetup.
 
Ich sehe nicht was ein Refresh bringen soll. Die 4090 wird man damit wohl auch nicht kriegen und gegen alle anderen NV Produkte steht man bereits ausgesprochen gut da und bietet das überlegene Gesamtpaket.
 
Ich sehe nicht was ein Refresh bringen soll. Die 4090 wird man damit wohl auch nicht kriegen und gegen alle anderen NV Produkte steht man bereits ausgesprochen gut da und bietet das überlegene Gesamtpaket.
Halt etwas mehr Anschluss an Nvidia. Es hätte AMD gut getan, noch ein paar Punkte zu sammeln.

Ich sehe auch keine überlegenen Gesamtpakete. Eher auf beiden Seiten das selbe P/L Verhältnis, neutral gesehen. Nach persönlichen Maßstäben kann das anders sein. Pro AMD, oder pro Nvidia.


Vielmehr hoffe ich, das AMD Treiberseitig an der VR Performance dringend nachbessert und generell noch ein paar Prozent holt.
 
Zurück