News AMD: RX 7800 und 7700 könnten auf der Gamescom vorgestellt werden [Gerücht]

Jeder der sich in letzter Zeit eine RX 6800/XT abgegriffen hat, braucht sicher nicht traurig sein
Anhang anzeigen 1431564


Definitiv, sind ja immer noch sehr gute Karten. Auch wenn es rein technisch mit RDNA3 und Ada neueres und besseres gibt, ist die alte Gen immer noch gleich gut geblieben.

Bei neueren und "trickigen" Games sieht man eher, dass beiden der Doppelbeschnitt (VRAM + Lanes) zum Verhängnis wird und dass man besser ein Modell mit einer "7" an zweiter Stelle nehmen sollte. :D

MfG
Raff

Jupp, generell Finger weg von 8GB VRAM heutzutage. Lieber bisschen mehr Geld aufwenden und eine Karte mit mind. 50% mehr VRAM kaufen.
8GB ist bei AMD <200€-Klasse von 2019 (Bsw. in Form einer RX 570 8GB). Heutzutage gehörten 8GB eigentlich auf <150€-Karten.
 
Na wenn Moore's Law Is Dead das behauptet eine unheimlich bekannte Seite mit riesiger Reputation wie GPUMAG das aufgreift, ja dann muss da was dran sein :haha:

Da wird vor Ende 2024 nichts kommen. Stand aktuell ist ja noch nicht mal das RDNA3 Lineup auch nur im Ansatz komplett.
Deswegen sag ich das ja, wenn da wirklich etwas kommt. Dann ist es keine Vollständige Serie.

Wenn man es allerdings schafft RDNA 4 High End GPUs auf den Markt zu werfen, wäre man auf dem Niveau der 4090.
Die RDNA Karten von jetzt erfüllen ja alles für die Mittelklasse und bis 2025 hat man dann ja noch Zeit für eine Komplette Serie fast auf Augenhöhe zu Nvidia von High End bis Low Tier. AMD hätte es dringend nötig. Zumal Intel das Portofolio ja nun von unten angeht.

Aber vermutlich hast du recht ist ja immer so mit den Release Daten.
 
Glaube net, das AMD jemals 2k€-Grakas bringen wird, ... kein ausreichender Markt, weil eeh die Leute in der Range
to Green gehen.

Im Idealfall sollte man <<1,5k€ bleiben und weiter an sich selbst messen.

Ne 2k€ würde eeh erst als Chiplet mit mehreren GCD´s Sinn ergeben, ... brauchts vermutlich aber net@3nm
für ne Nr. kleiner.
Solche Chiplets sehe ich eher für Workstations/Server.
 
Kann nvidia den preis der rtx4070 senken da sage ich nur Klares ja es wären 450$ problemlos möglich
man wird aber erst 550$ und dann später 500$ machen
Und diese sku mit dem refresh auf wieder 550$ anheben ne sku mit 52sm statt 46sm
Wenn amd im sep rx7700 400€ bringt was sehr aggressiv wäre das wären 379$
und rx7800 für 499€ wären um die 469$
 
Die Treiber laufen sehr gut und sind super stabil (war bei mir von Anfang an so als ich Ende Januar die Pulse bekam).
Es gab einfach ein paar wenige Dinge die nicht so liefen wie sie sollten, namentlich der hohe Idle-Verbrauch bei UHD >60Hz. Aber das hat AMD endlich zu einem grossen Teil, wenn auch noch nicht vollständig in den Griff bekommen. (Nicht alle Bildschirme funktionieren auf Anhieb, dass sie auf 12-15W runter gehen, wie bsw. mein LG C9 HDMI-2.1-Betaware-TV, aber CRU hilft)
Die Treiber sind dementsprechend mittlerweile tipptopp.

Die anfänglich fehlerhaften Kühler der MBA bei den ersten 2-3 Chargen ist seit Monaten Geschichte. Bei den Customs gab's m.W. keine solchen Fehler.

Gibt einfach ein paar ganz wenige Nice-to-have-Dinge die noch nicht 100% ausgereift, resp. künstlich zu stark eingeschränkt sind. So lässt bsw. das UV-Verhalten zu wünschen übrig, ist aber wohl technisch bedingt. Sowas kann bei einem Pipecleaner (hier für das Chipletdesign) schon mal passieren und ist für 99% der User eher irrelevant. Was mich persönlich noch stört ist, dass sich das Powerlimit nur auf -10% begrenzen lässt.

Die komplett realitätsfernen Fantastereien, dass ein 96CU/SM-Chiplet-Chip von Anfang an oder überhaupt mit einem 33% fetteren 128CU/SM-Mono-Chip mithalten können soll, haben aber sicherlich subjektiv und faktenlos den Ersteindruck zusätzlich getrübt.
Ich bin nicht einverstanden mit dieser positiven Bewertung der Treiber und der Kühler. Die Treiber laufen gar nicht gut und sind voller Bugs und Probleme, die AMD nicht beheben kann oder will. Es ist eine Zumutung, dass man bei UHD >60Hz immer noch einen hohen Idle-Verbrauch hat, und dass man CRU benutzen muss, um das zu umgehen. Das ist kein tipptopp, das ist ein Armutszeugnis.

Die Kühler der MBA waren nicht nur anfänglich fehlerhaft, sondern sind immer noch schlecht konstruiert und zu laut. Die Customs sind auch nicht viel besser, sie sind überteuert und ineffizient. Die Kühlung ist ein wichtiger Faktor für die Leistung und Langlebigkeit einer Grafikkarte, und AMD hat hier versagt.

Die UV-Möglichkeiten sind nicht nur zu wünschen übrig, sondern praktisch nicht vorhanden. Das ist kein Pipecleaner, das ist ein Rohrkrepierer. Die Chiplet-Architektur ist eine Fehlentscheidung, die nur zu mehr Komplexität und Instabilität führt. Die 99% der User, die das irrelevant finden, sind einfach unwissend oder ignorant. Das Powerlimit ist auch viel zu restriktiv und verhindert jegliches OC-Potenzial.

Die Fantastereien sind nicht realitätsfern, sondern basieren auf Fakten und Benchmarks. Der 128CU/SM-Mono-Chip ist einfach überlegen in jeder Hinsicht, er hat mehr Leistung, mehr Effizienz, mehr Features und mehr Zukunftssicherheit. Der 96CU/SM-Chiplet-Chip ist ein Flop, der nur von AMD-Fanboys verteidigt wird.
 
Ich bin nicht einverstanden mit dieser positiven Bewertung der Treiber und der Kühler. Die Treiber laufen gar nicht gut und sind voller Bugs und Probleme, die AMD nicht beheben kann oder will. Es ist eine Zumutung, dass man bei UHD >60Hz immer noch einen hohen Idle-Verbrauch hat, und dass man CRU benutzen muss, um das zu umgehen. Das ist kein tipptopp, das ist ein Armutszeugnis.

Die Kühler der MBA waren nicht nur anfänglich fehlerhaft, sondern sind immer noch schlecht konstruiert und zu laut. Die Customs sind auch nicht viel besser, sie sind überteuert und ineffizient. Die Kühlung ist ein wichtiger Faktor für die Leistung und Langlebigkeit einer Grafikkarte, und AMD hat hier versagt.

Die UV-Möglichkeiten sind nicht nur zu wünschen übrig, sondern praktisch nicht vorhanden. Das ist kein Pipecleaner, das ist ein Rohrkrepierer. Die Chiplet-Architektur ist eine Fehlentscheidung, die nur zu mehr Komplexität und Instabilität führt. Die 99% der User, die das irrelevant finden, sind einfach unwissend oder ignorant. Das Powerlimit ist auch viel zu restriktiv und verhindert jegliches OC-Potenzial.

Die Fantastereien sind nicht realitätsfern, sondern basieren auf Fakten und Benchmarks. Der 128CU/SM-Mono-Chip ist einfach überlegen in jeder Hinsicht, er hat mehr Leistung, mehr Effizienz, mehr Features und mehr Zukunftssicherheit. Der 96CU/SM-Chiplet-Chip ist ein Flop, der nur von AMD-Fanboys verteidigt wird.

Dann sind die Treiber der Konkurrenz genau so schlimm oder schlimmer bei Team Blau mit ultra-fine-wine-Entwicklung. Ich sehe wie die Treiber auf der 7900XTX laufen, und das tun sie nun mal mittlerweile sehr gut.
Ich weiss aber auch dass LG ein fauler Saftladen ist, was ich beim TV direkt spüre. Da ist bsw. Samsung wesentlich besser unterwegs, das sehe ich am Zweitmonitor, auch wenn Samsung dessen Release ebenfalls völlig verkackt hatte und über Monate Firmware um Firmware rausbringen musste, bis er lief wie er sollte.

Ich sehe nicht wo bei den Customs Probleme sind, mit Ausnahme dass dort einige Spezialisten nach meinem Empfingen viel zu hohe Lüfterdrehzahlen in die Standardlüfterkontrolle hinterlegten. Da kann AMD aber nix dafür.

Was OC angeht, kann man zum gewünschten Custom greifen, um komplett sinnbefreit 400W+ zu verballern. Sowas macht vielleicht Sinn bei einer RTX 4090, da die höhere Anzahl Rechenwerke davon mehr profitieren können, und die nuckelt das auch wenn nötig.

Doch es ist kompletter Schwachsinn anzunehmen, dass ein 96CU/SM-Chip mit Chiplets einem 33% fetteren Monochip Paroli bieten soll. Insbesondere da auch bekannt war, dass die Hardwareeinheiten von NVidia nun mal generell tendenziell stärker sind und NVidia von der second-class Samsung-Fertigung wieder zurück in die TMSC-Premiumliga wechselte.

Die Chiplet-Architektur ist die Zukunft, da die Fertigungsprozesse auf Siliziumbasis nun mal an ihre physikalischen Limits geraten. Eine Chiplet-Architektur ist jedoch technisch deutlich komplexer als ein Monochip, in der Produktion aber halt mit erheblich grösserem Potenzial wesentlich kostengünstiger zu sein. Sieh doch mal die Entwicklung bei den Ryzen/Threadripper/EPYC-CPUs an... RDNA3 als erster seiner Art ist glasklar ein Pipecleaner, wie es bsw. der Threadripper 1000 war. Ryzen/Threadripper/EPYC 1000-2000 waren noch in vielen Belangen weit hinter Intels Monochips. Erst mit den 3000ern konnten sie aufholen und mit den 5000ern Paroli bieten bei teils gleichzeitig besserer Effizienz. Erst bei der aktuellen 7000er Gen sind sie mittlerweile quasi überall führend bei den CPUs, mit Chiplets.
 
Die Chiplet-Architektur ist die Zukunft, da die Fertigungsprozesse auf Siliziumbasis nun mal an ihre physikalischen Limits geraten. Eine Chiplet-Architektur ist jedoch technisch deutlich komplexer als ein Monochip, in der Produktion aber halt mit erheblich grösserem Potenzial wesentlich kostengünstiger zu sein. Sieh doch mal die Entwicklung bei den Ryzen/Threadripper/EPYC-CPUs an... RDNA3 als erster seiner Art ist glasklar ein Pipecleaner, wie es bsw. der Threadripper 1000 war. Ryzen/Threadripper/EPYC 1000-2000 waren noch in vielen Belangen weit hinter Intels Monochips. Erst mit den 3000ern konnten sie aufholen und mit den 5000ern Paroli bieten bei teils gleichzeitig besserer Effizienz. Erst bei der aktuellen 7000er Gen sind sie mittlerweile quasi überall führend bei den CPUs, mit Chiplets.
Die Chiplet-Architektur ist nicht die Zukunft, da die Fertigungsprozesse auf Siliziumbasis noch lange nicht ausgereizt sind. Eine Chiplet-Architektur ist zwar technisch beeindruckend, aber in der Praxis mit vielen Nachteilen verbunden, wie höherer Latenz, mehr Energieverbrauch und geringerer Zuverlässigkeit. Die Entwicklung bei den Ryzen/Threadripper/EPYC-CPUs zeigt, dass sie immer noch hinter den Monochips von Intel hinterherhinken, die eine bessere Leistung, Effizienz und Kompatibilität bieten. RDNA3 ist kein Pipecleaner, sondern ein Rohrkrepierer, der an den hohen Anforderungen des Marktes scheitern wird. Die Chiplets sind kein Fortschritt, sondern ein Rückschritt bei den GPUs.

Was OC angeht, kann man zum gewünschten Custom greifen, um komplett sinnbefreit 400W+ zu verballern. Sowas macht vielleicht Sinn bei einer RTX 4090, da die höhere Anzahl Rechenwerke davon mehr profitieren können, und die nuckelt das auch wenn nötig.

Doch es ist kompletter Schwachsinn anzunehmen, dass ein 96CU/SM-Chip mit Chiplets einem 33% fetteren Monochip Paroli bieten soll. Insbesondere da auch bekannt war, dass die Hardwareeinheiten von NVidia nun mal generell tendenziell stärker sind und NVidia von der second-class Samsung-Fertigung wieder zurück in die TMSC-Premiumliga wechselte.
Ich bin anderer Meinung, was OC betrifft. Ich denke, dass es sinnvoll ist, das gewünschte Custom zu wählen, um die volle Leistung aus der Karte herauszuholen. Es ist nicht sinnbefreit, 400W+ zu verbrauchen, wenn man dafür mehr FPS bekommt. Das gilt nicht nur für eine RTX 4090, sondern auch für andere Karten, die von OC profitieren können.

Außerdem halte ich es nicht für kompletten Schwachsinn, dass ein 96CU/SM-Chip mit Chiplets einem 33% fetteren Monochip Paroli bieten soll. Es kommt nicht nur auf die Anzahl der Rechenwerke an, sondern auch auf die Architektur und die Optimierung der Treiber. Ich glaube, dass AMD hier einen guten Job gemacht hat und dass die Hardwareeinheiten von NVidia nicht generell tendenziell stärker sind. Und was die Fertigung angeht, so hat Samsung auch gute Qualität und NVidia ist nicht automatisch besser, nur weil sie zu TMSC gewechselt sind.
 
Theoretisch könnte AMD schon nen Monochip mit 6x-->8x Shaderengines bringen, um bei Raster aufzuschließen, aber
Lisa meinte das der Markt net reif ist für teure RDNA3.(jetzt mal nur auf die GCD bezogen)

N31 vs AD102.jpg
Das wären dann vllt. zusätzlich ca. 60mm² Silizium, ... dann ungefähr so groß wie bei der 4080.(immer noch <<4090)
... sollte in der Fertigung beim Yield gut genug sein

8x würde dann mit 95W mehr auch gut takten, weil sich der Anteil von SOC+Vram net erhöht
(vllt. muss man für sonen Refresh aber auch auf GDDR7 warten)

Das manche Leute denken, das die NV-Cores bei Raster besser sein sollen, kann ich net nachvollziehen.
(die 4090 wendet 90% mehr Fläche auf für 20-30% ? mehr Fps je nach W)
 
Zuletzt bearbeitet:
definiere voll

bei der Rasterperf. sehe ich keine Probleme
das man wg. RT nen Preisnachlass gibt sehen sicher die meisten XTX-Käufer positiv

das 24GB@384bit etwas mehr W saugen erscheint zwar momentan ärgerlich, kann sich aber später noch ändern,
wenn die 16GB@256bit der 4080 langsam knapp werden
 
Also findest Du die 16GB nur wegen der weniger W an 256bit vorteilhaft?
Nach m.E. wird die Bedeutung der Bandbreite zunehmen.
 
bis 2025 werden sich doch hoffentlich die Games bezgl. Texturen weiter entwicklen, wenn man net mehr auf ne
3080-10GB soviel Rücksicht nehmen muss

Ich glaube net, das man für die 4080 die Hand ins Feuer legen kann.
Es sind doch schon Anzeichen da, wo die 4080 deutlich mehr Ram belegen muss, wg. des knappen Vrams.
Ob mans dann mit schnellen Schwenks in Game XYZ nach ner 1h Spielzeit auch schon provozieren kann, who knows.
 

Anhänge

  • Vram+Ram@TLoU.jpg
    Vram+Ram@TLoU.jpg
    188,1 KB · Aufrufe: 10
Zuletzt bearbeitet:
Und weil in ferner Zukunft die 7900 XTX evtl. einen Vorteil aus dem Speicher ziehen könnte hat sie den kleinen Nvidia Chip voll unter Kontrolle? :ugly:
 
Mir ist Das vollkommen buggy Was Du evtl. als voll betrachten würdest.
Aus meiner Sicht passen P/L und Zukunftssicherheit als Paket.

Nebenbei wird vermutlich auch die CPU länger passen wg. des geringeren Overheads in DX12.
 
bis 2025 werden sich doch hoffentlich die Games bezgl. Texturen weiter entwicklen, wenn man net mehr auf ne
3080-10GB soviel Rücksicht nehmen muss
Niemand nimmt auf einen 3080 Rücksicht, man nimmt aber auf die aktuellen Konsolen Rücksicht und da hat die XBox Series X eben nur 10GB schnell angebundenen GDDR6 zur Verfügung bei insgesamt 16GB und auch die Playstation hat "nur" 16GB insgesamt.
 
Zurück