News AMD: RX 7800 und 7700 könnten auf der Gamescom vorgestellt werden [Gerücht]

Hmm, ich lege mich jetzt mal weit aus dem Fenster, nach dem ich mir alles genau angesehen habe, die specs etc. ich rechne mit einem RDNA 3.5 Refresh RDNA4 wird sehr wahrscheinlich verschoben.

Duell mit Ada äußerst spannend.
 
Ich hätte sehr gerne wieder eine AMD gekauft, es kam jedoch alles ( für mich persönlich ) viel zu spät. Schade! Vllt nächste Gen wieder. Oder aber Intel? :D
Für die Vitrine wird jedoch noch eine ARC gekauft, einzig und alleine weil es der erste Neustart nach Jahren ist.
 
Ausgehend von RDNA 2 war RDNA 3 eine riesige Enttäuschung.
Dem kann ich nur Zustimmen. An Rendertechnik gibt es gefühlt garkeine Verbesserung wenn man beachtet dass es ja auch einen neueren Prozess gibt (gemessen leichte, aber viel zu leichte, RT gewinne). Dafür ein Fertigungs-Experiment bei den großen Karten, aber da hat der Endkunde ja nichts von.
 
Die nächste Generation, also 1,5 Jahre? Nee, du, Navi 32 wird spannend (sofern man nicht bereits eine Navi-21- oder GA102-GPU nutzt). :-)

MfG
Raff
Spannend? Bei gleicher VRAM-Größe wie der Vorgängergen? Ich hatte auf die 7700 als sparsamere 6800 spekuliert.
So langsam wird die nächste Intel-Gen interessant, wenn die anderen mein Geld nicht wollen. Ich fühle aktuell zumindest keinen Wunsch es loszuwerden.
 
Wozu noch 7800 und 7700 wenn die Karten nicht schneller sind bin gespannt was noch kommt und zu welchen Preis eine 4080 lächelt mich immer noch an nur nicht über 1000 euro
 
AMD schafft es einfach nicht bei der GPU Sparte, seit Jahren konstante gute GPUs auf den Markt zu bringen. Mal ist eine Gen ein Flop, dann wieder "ok" dann sogar richtig gut (RDNA 2) nur um dann wieder einen Fail Architektur zu veröffentlichen. Nvidia im Gegenzug hat es seit der 8800 GTX geschafft, konstant gute Produkte auf den Markt zu bringen, zwar leider auch zu teuer. Aber das scheint die meisten auch nicht zu stören.

Und das Ergebnis ist, dass Nvidia viel mehr für Forschung unt Entwicklung sowie KI investieren kann, und AMD eigentlich immer nur nachmachen kann. DLSS, FG, RT, usw.

Deswegen ist der GPU-Markt so, wie er nun mal ist. Daran hat AMD leider eine große Mitschuld.

Die 7800 hat ungefähr 6800XT Leistung bei 40W weniger, bei der Cutdown Version ist es noch bitterer, wenn die 245W stimmen
Ich will die aktuelle GPU Generation und die AMD Grafikkartenabteilung (sowohl Produktpolitik wie technische Entwicklung) jetzt auch nicht gerade loben.

Aber es sind auch zu nicht unerheblichen Anteilen die Kunden schuld, dass der Grafikkartenmarkt so aussieht, wie er ist:
Als damals die Radeon HD 7970/7950/7870/7850 auf den Markt kamen, waren diese technisch in allen Punkten (Leistung, VRAM-Ausstattung, Effizienz) den jeweiligen Konkurrenzprodukten von nVidia überlegen. Dies hat AMD bei den Marktanteilen aber wenig genützt. 70 bis 80 Prozent der Kunden haben damals trotzdem zu nVidia gegriffen. So wird das natürlich auch nichts mit einem echten Wettbewerb bei Grafikkarten, wenn die Leute trotzdem größtenteils nVidia kaufen, selbst wenn AMD die besseren Produkte anbietet. Das muss man leider so zur Kenntnis nehmen.
 
AMD pennt bei den GPUs ja gewaltig. Die sind quasi im Wachkoma.

Während man Intel bei den CPUs technologisch sehr gut im Griff hat, wird man bei den GPUs von Nvidia vorgeführt.

Würde mich nicht wundern, wenn Lisa bei der Radeon Group mal mit dem eisernen Besen durch kehrt.

Nach dem völlig verkackten Release der 7900XT(X) würde ich das nur begrüssen, wenn Lisa den kanadischen Laden mal wieder von seinem hohen Ross runterholen würde und entstaubt. Die Softwareabteilung gehört weiterhin deutlich aufgebohrt.

Allerdings hat die AMD-Führung auch bei sich selbst aufzuräumen, und es künftig zu unterlassen, mit der Brechstange 2 Wochen vor Weihnachten ein halbfertiges Produkt veröffentlicht sehen zu wollen, weinende Aktienkinder hin, quengelnde Gamer:innen her.
 
Ich will die aktuelle GPU Generation und die AMD Grafikkartenabteilung (sowohl Produktpolitik wie technische Entwicklung) jetzt auch nicht gerade loben.

Aber es sind auch zu nicht unerheblichen Anteilen die Kunden schuld, dass der Grafikkartenmarkt so aussieht, wie er ist:
Als damals die Radeon HD 7970/7950/7870/7850 auf den Markt kamen, waren diese technisch in allen Punkten (Leistung, VRAM-Ausstattung, Effizienz) den jeweiligen Konkurrenzprodukten von nVidia überlegen. Dies hat AMD bei den Marktanteilen aber wenig genützt. 70 bis 80 Prozent der Kunden haben damals trotzdem zu nVidia gegriffen. So wird das natürlich auch nichts mit einem echten Wettbewerb bei Grafikkarten, wenn die Leute trotzdem größtenteils nVidia kaufen, selbst wenn AMD die besseren Produkte anbietet. Das muss man leider so zur Kenntnis nehmen.
Ich verstehe. Es ist wahr, dass die Kunden eine wichtige Rolle bei der Gestaltung des Marktes spielen. AMD hat in der Vergangenheit einige großartige Produkte auf den Markt gebracht, aber es ist auch wahr, dass nVidia in Bezug auf die Marktanteile führend ist. Es gibt viele Faktoren, die dazu beitragen können, dass ein Unternehmen erfolgreich ist oder nicht. Es ist jedoch wichtig zu beachten, dass es immer eine Wahl gibt und dass jeder Kunde die Freiheit hat, das Produkt zu wählen, das am besten zu ihm passt.
 
Wenn es nach Nvidia und Unreal geht, dann sehen Spiele bald so aus und verschlingen eine 4080 bei lebendigem Leibe und ein Ghost Recon Spiel mit der Grafik würde ich mir durchaus gefallen lassen.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Vergleichen wir mal kurz mit dem jüngsten Hype Spiel, wie das so aussieht
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wie wir sehen, haben wir ein Problem. Da kollidieren irgendwie die Vorstellungen von Nvidia/AMD/Unreal auf der einen Seite und den Kunden auf der anderen Seite. Einerseits ist das gut, denn es zeigt, dass Gameplay wichtiger ist als Grafik. Andererseits zeigt das auch, dass es sich nicht wirklich lohnt auf mehr hinzuentwickeln als die aktuellen Konsolen, weil das einem Hardwarestand entspricht der massenhaft verbreitet ist und kommerziell tragbar ist. Wenn jemand am PC eine höhere Auflösung fahren kann, dann ok, wenn jemand am PC die Auflösung runterschrauben kann ist das sogar wichtiger, weil das eine größere Zielgruppe erschließt.

AMD ist aktuell der einzige Hersteller der ein Gaming Komplettsystem liefern kann. Intel GPUs haben nicht den Stand bei den Spielern und Nvidia Systeme brauchen immer eine Intel oder AMD CPU. AMD sind die einzigen die alles aus einer Hand anbieten können und gemessen daran machen sie zu wenig.

Denn wie oben beschrieben, gemessen an der Leistung die so ein AMD System braucht, ist AMD locker innerhalb der Komfortzone und Unreal 5 mit Lumen ist für alle noch ein Stück weit entfernt.
 
Nach dem völlig verkackten Release der 7900XT(X) würde ich das nur begrüssen, wenn Lisa den kanadischen Laden mal wieder von seinem hohen Ross runterholen würde und entstaubt. Die Softwareabteilung gehört weiterhin deutlich aufgebohrt.

Allerdings hat die AMD-Führung auch bei sich selbst aufzuräumen, und es künftig zu unterlassen, mit der Brechstange 2 Wochen vor Weihnachten ein halbfertiges Produkt veröffentlicht sehen zu wollen, weinende Aktienkinder hin, quengelnde Gamer:innen her.
Anscheinend gibt es jede Menge Probleme mit den Treibern, der Kühlung und der Verfügbarkeit. Ich bin echt froh, dass ich mir keine bestellt habe, sonst wäre ich jetzt ziemlich sauer.
 
Also die hd7000 siere war ales aber nicht überlegen
Die gtx680 ein ,mid class chip hat den high end chip deklassiert hd7970
Dann brauchte amd für dieselbe Leistung 200w während nvidia bei nur 150w brauchte
Zu der zeit war nvidia kepler (gtx600 gtx700) den amd gcn chips deutlich überlegen eine gtx760 war schneller als die Hd7870 selbst als gigaherz edition
Erst die OC gpu r9 200 series konnte nvidia kepler gleichziehen. Das war 2012 und 2013
Damals war auch ne stagnation der gpu preise von 2013 bis 2016 wegen Fertigungsstillstand
 
Also die hd7000 siere war ales aber nicht überlegen
Die gtx680 ein ,mid class chip hat den high end chip deklassiert hd7970
Dann brauchte amd für dieselbe Leistung 200w während nvidia bei nur 150w brauchte
Zu der zeit war nvidia kepler (gtx600 gtx700) den amd gcn chips deutlich überlegen eine gtx760 war schneller als die Hd7870 selbst als gigaherz edition
Erst die OC gpu r9 200 series konnte nvidia kepler gleichziehen. Das war 2012 und 2013
Damals war auch ne stagnation der gpu preise von 2013 bis 2016 wegen Fertigungsstillstand
Ich erinnere mich noch gut an die Zeit, als Nvidia Kepler (GTX600 GTX700) die AMD GCN Chips klar abgehängt hat. Eine GTX760 konnte locker mit einer HD7870 mithalten, selbst wenn sie als Gigahertz Edition kam. Erst mit der R9 200 Serie hat AMD wieder aufgeholt. Das war damals 2012 und 2013. Seitdem gab es kaum noch Fortschritt bei den GPU Preisen von 2013 bis 2016, weil die Fertigung stagnierte.
 
Ist das jetzt ein langer Text um mir zuzustimmen? Wenn du sagst 7800 = 6800xt = 4070, passt meine Aussage 7800xt =6950xt doch, oder nicht?
Die in diesem Leak behandelte Karte ist auf dem Level einer 4070, also der N32 Vollausbau. Wie AMD die Karte nennen wird weiß keiner. Geht man nach der Originalquelle wird das die 7800XT und der ebenfalls aus Leaks bekannte 70CU N31 eine 7900, wobei dieser N31 wohl extrem wenig Volumen haben soll und wohl noch mal deutlich später kommt, vergleichbar mit der 6700 10Gb. Wie ich aber schon schrieb hätte dann die 7800XT die nahezu gleiche Performance wie die 6800XT, möglich also, dass AMD ein anderes Namensschema verwendet und beispielsweise gar keine XT veröffentlicht.
Ich widerspreche dir insofern, dass der hier geleakte Chip mit 60CU's und 260W TDP gleichwertig zur 6950XT wird, der erreicht nur die 4070.
 
halten wir fest..
was raus kommt ist
rx6800 16GB = rx7700xt 12GB
rx6900 16GB = RX7800xt 16GB

dolle sache bei dem einen kastriert man den Vram, und beim anderen hat man vielleicht 5% mehr leistung

kein wunder das AMD die Karten bisher nicht veröffentlicht hat
 
Die 6800xt ist so stark wie die 4070, denke nicht das es überhaupt kein Leistungssprung bei der 7800xt gibt.
7800xt vs 4070 ti
7700xt-7800 vs 4070
7600xt-7700 vs 4060 ti
Bei AMD fehlen echt noch viele Karten, was machen die eigentlich den ganzen Tag? Ich kann mir nur vorstellen, es gibt einfach noch genug 6000er (6700-6900) auf dem Markt und die verkaufen sich auch noch gut genug, das man einfach wartet.

AMD hat die Veröffentlichung von GPUs aber auch gedreht. Früher haben sie die Einsteiger und Mittelklassekarten zuerst veröffentlicht während Nvidia wie immer die Topmodelle zuerst veröffentlicht. Dass man zuerst die 7900 XT/XTX zuerst veröffentlicht und danach lange Zeit gar nichts ist neu.
 
Anscheinend gibt es jede Menge Probleme mit den Treibern, der Kühlung und der Verfügbarkeit. Ich bin echt froh, dass ich mir keine bestellt habe, sonst wäre ich jetzt ziemlich sauer.

Die Treiber laufen sehr gut und sind super stabil (war bei mir von Anfang an so als ich Ende Januar die Pulse bekam).
Es gab einfach ein paar wenige Dinge die nicht so liefen wie sie sollten, namentlich der hohe Idle-Verbrauch bei UHD >60Hz. Aber das hat AMD endlich zu einem grossen Teil, wenn auch noch nicht vollständig in den Griff bekommen. (Nicht alle Bildschirme funktionieren auf Anhieb, dass sie auf 12-15W runter gehen, wie bsw. mein LG C9 HDMI-2.1-Betaware-TV, aber CRU hilft)
Die Treiber sind dementsprechend mittlerweile tipptopp.

Die anfänglich fehlerhaften Kühler der MBA bei den ersten 2-3 Chargen ist seit Monaten Geschichte. Bei den Customs gab's m.W. keine solchen Fehler.

Gibt einfach ein paar ganz wenige Nice-to-have-Dinge die noch nicht 100% ausgereift, resp. künstlich zu stark eingeschränkt sind. So lässt bsw. das UV-Verhalten zu wünschen übrig, ist aber wohl technisch bedingt. Sowas kann bei einem Pipecleaner (hier für das Chipletdesign) schon mal passieren und ist für 99% der User eher irrelevant. Was mich persönlich noch stört ist, dass sich das Powerlimit nur auf -10% begrenzen lässt.

Die komplett realitätsfernen Fantastereien, dass ein 96CU/SM-Chiplet-Chip von Anfang an oder überhaupt mit einem 33% fetteren 128CU/SM-Mono-Chip mithalten können soll, haben aber sicherlich subjektiv und faktenlos den Ersteindruck zusätzlich getrübt.
 
RDNA3 hat einen design Fehler der so nicht zu erkennen war.
Das war amd bis kurz vor der Produktion selber nicht aufgefallen
Der prefetcher ist fehlerhaft aber anstatt den zu deaktivieren hat man diesen deutlich unter dem Takt laufen lassen als gedacht
Das betrifft das komplette Speichersystem von L1 bis inf cache maximal sind 2,6ghz drin alles darüber braucht abnormal viel Strom damit keine Bildfehler aufkommen.
Der Grund ist die Fertigung und die Größe des sram man hatte wohl versucht diesen zu verkleinern das Resultat ist das daten ab ner Frequenz nicht mehr konsistent sind:
Bei geringeren Taktraten funktioniert die gpu normal aber alles über dem sweetspot von n5 was so 2,4-2,7ghz ist kommt es zu Darstelungsfehlern

Der chip wurde für min 3,0ghz und maximal 3,2ghz designt und die architektur kann das auch wenn der sram auf dem chip ein leicht wenig größer wäre etwa 10%. Per software das zu fixen hat nicht funktioniert, die Lösung ist aktuell die spannung stark ansteigen zu lassen so das man über 2,6ghz kein fps mehr bekommt.
Das was hilft beim Oc der gpu ist den vram Takt zu steigern. Klar kann es zu chip Lotterie kommen und man schafft 1-3% Mehrleistung aber das ist die übliche chiplotterie und somit Messungenauigkeit.

Lösung ist aktuell rdna4 wo der Fehler gänzlich gefixt ist
Dabei kommt raus das 25% des simd32 die Ausführungen pro cu auf 2,5 steigt derzeit 2,34
Und das die gpu n3 typisch auf 3,6ghz steigt
Daher nehme ich an das man min 64tf erreichen wird mit der rx8950xt auch weil der Vollausbau mit 120cu chipfläche von etwa 262mm² derzeit 300mm² kommt.
120*2,5*3,6*64=69tf maximal "Nice" minimal 64tf
Die frage die sich stellt wird es mit rdna4 auch nur 60cu geben in der Mittelklasse oder wird man 96cu setzen und der kleinste wird 60cu haben von der chipfläche lohnt sich das 210mm² 96cu und 130mm² 60cu
nen monolithen wird sich nicht mehr lohnen da klar ist das der Taktunterschied zu groß wird.
 
Interessant ist ja das in der Roadmap für die High End GPUs bei AMD immer noch Ende 2023/ Anfang 2024 stehen hat.

Das würde ja bedeuten das die 7900Xt und 7900XTX schon einen Nachfolger bekommen würden in ca. einem halben bis 3/4 Jahr...

Sollte sich das bewahrheiten wäre es schlau wenn die 7800XT sehr sehr nah an der 7900XT wäre was die Performance angeht.

Allerdings wäre der Release der mittleren, zeitlich entweder total verrutscht oder die Nachfolger der 7900XT/X bekommen keine Mittelklasse... sehr merkwürdig.
 
Zurück