News AMD Radeon RX 8900 XTX: Navi 41 zeigt, was hätte sein können

Viele scheinen irgendwie nicht zu verstehen das es sich bei den Informationen ausschließlich um Gerüchte handelt, inoffzielle Leaks. Es gibt keinerlei offizielle Informationen hierzu. Kann so kommen, muss es nicht. Diese Leaker haben sich bereits mehr als einmal geirrt.
Schwächeln ja gerade gewaltig
AMD besteht aber eben nicht nur aus der Grafiksparte und die Grafiksparte verkauft nicht nur Gaming GPUs.
Dann wären beide Karten von der Raytracing Preisleistung dort, wo die Nvidia Konkurrenz ist.
Warum sollte man seine Produkte ausschließlich nach der RT Leistung bepreisen?
 
AMD besteht aber eben nicht nur aus der Grafiksparte und die Grafiksparte verkauft nicht nur Gaming GPUs.
Stimmt natürlich auch wieder. Wie viel machen Sie denn im Ai Markt aus? Meines Wissen sind die da auch keine Große Nummer oder? Aber Gewinn können Sie natürlich trotzdem machen, solange die Nachfrage von Nvidia nicht gedeckt werden kann.
 
wir werden ja sehen was da im Herbst auf uns zukommt, auch wenn es nur eine 8800XT mit der Leistung einer 7900XT(X) für 500-600€ werden sollte, ist doch wunderbar, der Enthusiasten Bereich an Kunden mit Karten ab 1000€ aufwärts wird eh recht überschaubar für AMD sein

wenn dann eine 9800XT mit der Leistung einer 4090 mit RDNA5 kommt, wird das wohl meine nächste Karte werden, vorher wird eh noch mein Unterbau mit entweder Zen5 oder Arrow-Lake aufgerüstet, wobei ich da bei letzterem ungern noch bis Anfang 2025 warten möchte
 
So so eine 8900xt wäre auf dem Level der aktuellen rtx 4090 gewesen wenn es nicht gestrichen worden wäre.

Das kann man so oder so sehen. Und wenn sie raus gekommen wäre, ist diese viel zu spät dran. Nvidia wird dann mit der rtx 5080 oder 5070 kontern. Dann hätte amd dann die Preise senken müssen. Am Ende würde wohl AMD nicht viel dran verdienen.
Und es bleibt dann nicht viel Geld für die Entwicklung übrig. Zudem sind die modernen Fertigungen begrenzt von der Kapazität. Also so viel könnte AMD nicht herstellen bzw abdecken wie sie gerne wollten.

Darum wird der Nachfolger von highend auch etwas später kommen. Macht aber nix. Ohne den 3nm fertigung wird man keinen echten Sprung bei der mehr Leistung raus bekommen als es sei denn die Kunden lieben 450 Watt gpus.

Nur wenn das Gerücht war ist, dann heißt es wohl Geduld haben. heutzutage muss Nvidia trotz wenn Amd doch mal Konkurrenz werden sollte, die Preise dennoch kaum senken. Also als Preisdrücker war mal AMD gewesen und heutzutage sieht es aber schon ganz schön anderst aus.
 
Keine High-End-GPU kein Geld, mir 🦢 böses was NVIDIA Preise angeht 😅
Juckte bisher auch keinen der Käufer, wie sportlich die Preise da für gleiche Leistung waren, selbst als es statt um Softwarestack und Raytracingleistung nur um Raster-FPS und Bildqualität ging. Der Laden hat in der Vergangenheit auch Rankine, Curie und Fermi überlebt, als die Konkurrenz bei Leistung und Bildqualität leicht bis meilenweit vorne lag.
Bekanntheit und Marktmacht(vor allem im OEM-Bereich)sind ein Hebel der gerade auch hier im Forum immer wieder enorm unterschätzt wird. Bei Intel doch genau das Gleiche: Denen brechen im Endkundensegment weder das aktuelle "K-Instabilitäts-Gate", noch die miese Effizienz unter Last das Genick, weil man im Mediamarkt und bei den OEMs quasi nur die Intel+NVidia-Kombi kaufen kann(und wenn Intel da die bewährten Praktiken anwendet vielleicht auch bald die Intel+Intel-Kombi).

Laut meiner Einschätzung hat AMD mit dem Chiplet-Experiment bei GPUs mit echter Funktionstrennung der Chips viele Erfahrungen gesammelt, gerade was Probleme beim Powermanagement angeht, und schiebt diese Generation die ruhige Kugel und released nur, weil der Markt das erwartet. Quasi "Polaris 2", ohne große Experimente in einem Segment, wo eine enorme Marktlücke klafft, die außer Intel momentan niemand ernsthaft bedient(außer mit der Resterampe und 4-8-Lanes-Krüppeln). Falls NVidia so viele ihrer Kapazitäten bei den Auftragsfertigen wie möglich für die großen Chips nutzt, kann die Rechnung da sogar aufgehen und AMD kann sich voll auf die Entwicklung der RX9xxx konzentrieren, während man gleichzeitig den Markt mit Vernunftmodellen flutet.
Der kolportierte RX8xxx-Chip wäre aber nichtsdestotrotz interessant gewesen.
 
Das problem bei rdna3 war das der sram seine daten nicht konsistent halten kann. Sprich je höher der Takt desto wahrscheinlicher sind Bildfehler.
Amd Lösung pures draufballern von spannung

Die Lösung man vergrößert die sram Zelle um grob 10%
Das ist ein sehr kleiner teil des chips insgesamt wir damit die alu part um 10% größer exklusiv L2 cache
Der Großteil der alu somit die SE ist L2 cache das macht grob 40% aus. 30% gehen an L0 und L1 und der rest ist alu die in fp32 int32 sowie rt core tmu und rop (ganzer chip) zusammen bringt.
Wie funktioniert dual issue das verstehen viele nicht, das ist die Idee das man den alu mehr zutun gibt während man auch den Speicher wartet den amd design hat chronischen Speicher Mangel also ein Latenz Problem das die alu nicht auslasten kann das liegt am cu design
Es sind 32bit auf 2 Partitionen je fp32 und int32 Einheit man hat also mehr alu als Speicher per cu
Die Wartezeit wird mit einen zweiten thread für fp32 angefangen und das sind aktuell 17% des zweiten threads also aus 2 Operationen pro Takt wird 2,34 Operationen pro Takt. Da ich aber diese idee ausweite wird amd dies so ändern in rdna4
man vergrößert den sram damit dieser höher Takten kann darum sind in n4x node 3,9ghz drin und in samsung sf4x 3,1ghz
Dann wird man die tmu verdoppeln und zuletzt eventuell per cu die bitanzahl auf 48 erhöhen dadurch vergrößert sich die 2 thread in dual issue auf 21% =ein Takt =2,42 operationen So gesehen erhöht sich die ipc das aber ist spekulativ

Aus den kommende 64cu sind maximal dann möglich bei 3,1ghz real 30,7tf drin (grob rx7900xt)
Der chip wird grob 270mm² groß werden und maximal als sku bei 300$ anfangen können der markt gibt aber min 500$ her was amd dankend annimmt.
Ein theoretischer n41 mit 3 gcd zu je 3se =9 se mit maximal 144cu =69tf und somit gleichstand zu nvidia rtx4090
Wegen cpu limit.
nvidia blackwell wird mit gb203 144sm nur 2,3ghz aber mit mit deutlich mehr alu per sm 192 vs 128 =27643 vs 18432 grob 100tf (logische Weiterführung eines design)
Da aber zu blackwell das Gerücht gibt von 256alu per sm was technisch nicht umsetzbar ist gehe ich auch von einer cache arch Änderung aus. Damit nvidia dasselbe machen kann wie amd und die ipc per clock zu erhöhen.
von derzeit 2 mal 32bit per sm geht man zu 2 mal 48bit der Vorteil man kann 3 Operationen per clock umsetzen der Nachteil man bleibt bei 88fp32 sprich dann 144sm =114tf gleiche arch nur mit mehr cache. Das marketing wird daraus dual issue mit theoretisch 256alu per sm machen real sind es weiterhin 128 alu nur eben mit 96bit per sm statt den derzeit 64bit das wäre ne Lösung. Der große Vorteil der Takt bleibt gleich bis leicht erhöht auf 3,0ghz.

man sieht amd rdna4 high end wäre gar nicht in der Lage was konkurrenzfähiges zu machen dafür braucht es zwingend größere SE (shader engiens) derzeit 16cu dann 32cu =9 Se 288cu 138tf
Eine nvidia shader engine genannt tpc hat 24sm das sind 2 gpc das soll sich ändern in 48sm per tpc

Nun zum problem warum viele Shader engines nicht gut funktionieren das liegt an windows und directx mehr als 6 threads sind kaum noch skalierbar 8 derzeit das maximum daher hat nvidia maximal 6 tpc 144sm = renderegines laufen amd ebenso mit 6 SE 96cu
Es ist eher anzunehmen das amd rdna5 192cu haben wird mit n51 als die 288 = 92tf
amd Ausweg wäre nur n3 node und dann 4,0ghz =118tf

Das wird amd dxr Rückstand aber nicht helfen weswegen ich die tmu Verdoppelung stark annehme das wird amd derzeitige dxr perf verdoppeln +1% pro 0,1ghz maximal +15%=65% beim n3 node und maxed +5%=+55% bei sf4x node womit rdna4 designt wurde. aus derzeit -120% werden nur noch -45% Rückstand zu nvidia ada gen
also braucht amd 64cu für 35sm vs aktuell 72cu für 34sm mit rdna5 wird das nochmal mehr auf -35% = dann 64cu vs 42sm die gleiche pathtracing perf haben

Sku technisch sieht das so aus 2 volle chips n51 6 Se 192 cu 2 sku n52 3se 96cu drei sku (x800 x700) keine low end mehr
n51 192cu 9900xtx 118tf + 218% (n31 96cu) 2025
n51 168cu 9900xt 104tf +225% (n31 84cu) 2025
n52 96cu 9800xtx 59tf 2025
n52 84cu 9800xt 52tf +147% (n32 64cu) 2025
n52 72cu 9700xt 44tf +46% (n32 54cu) 2025
n48 64cu 8700xt 30tf +66% (n32 54cu) 2024 q4
n48 56cu 8700 25tf 2024 q4
n44 32cu 8600xt 15,3tf +18% (n33 32cu) 2025 q1
n44 28cu 8600 13,4tf +3% (n33 32cu) 2025 q1
low end werden die apu mit 64cu 2 SE beim am6 sockel und quadchannel ddr6 2026

nvidia indes mit der cache Idee wäre es so
gb203 132sm rtx5090 3,0ghz 104tf vs n51 192cu
gb205 112sm rtx5080ti 3,0ghz 88tf vs n51 168cu
gb206 90sm rtx5080 3,0ghz 71tf
gb206 80sm rtx5070ti 2,4ghz 50tf
gb207 60sm rtx5070 2,4ghz 38tf vs n52 96cu
gb207 44sm rtx5060ti 2,4ghz 27tf vs n52 84cu
ad104 46sm rtx5060 2,5ghz 20tf 180w (auch möglich als rtx4060ti super dieses Jahr) vs n52 72cu
ad106 36sm rtx5050 2,2ghz 13,9tf 120w (auch möglich als rtx4060 super dieses Jahr) vs n48 64cu

Die preise werden sich danach ausrichten
nvidia gewinnt immer in dxr bei dem Szenario aber amd würde aufholen bis man mit n2x node die alu verdoppelt und nvidia ein problem bekommt.
Die andere Idee durch ändern der alu per sm wäre sinniger als das man die ipc erhöht
Amd Lösung müsste mehr Diefläche für den sram und doppelte tmu mit einen 48bit design sein
das würde das dxr problem lösen und auf Dauer mit n62 mit mehr alu nvidia überholen bei der cache Lösung mit der mehr alu Lösung wäre sogar amd wieder total abgeschlagen mit -100% Rückstand zu nvidia dxr perf.

Wofür sich beide unternehmen entscheiden ist ne frage wie teuer das wird an diefläche für cache zu verschwenden vs mehr alu die ipc pro Takt macht sinn wenn die alu Langeweile schieben weil der ram auf sich warten lässt.
Bei amd chronisch bei nvidia nicht zwingend erforderlich es würde quasi nur dem ego streicheln (3,0ghz) wenn nvidia die arch belässt und nur die ipc erhöht per clock.
Das führt aber zu ner Sackgasse ab n2 ist Schluss mit Skalierung mit mehr alu (maxed diefläche 420mm²)
MCM ist unausweichlich ab n2x
mehr Takt könnte helfen nvidia design dann bei 4,0ghz mit der 3 Operationen per clock maxed 192sm 300mm² 4,0ghz 202tf (chip vermutl 260$)
amd indes mcm mit 384cu bei 237tf mit rdna6 2027 (chip vermutl 160$)
Der dxr abstand dürfte sich nicht ändern daher muss nvidia ab gx202 2027 mcm haben wenn die cache idee funktioniert alternativ wär ein umbau des sm auf mehr alu per sm Sinnvoller.
 
Hätte, hätte... man sieht ja wie wenig HighEnd-Kunden AMD Karten kaufen, muss man sich nicht wundern, wenn sie kein Geld mehr verbrennen wollen als unbedingt nötig. Hätten sich mehr Kunden für die XTX entschieden, gäbe es auch eine ordentliche 8000er-Karte für Highend-Kunden. Aber die Kunden haben, mit ihrem Kaufverhalten, klar gesprochen.
Für mich ändert sich nichts, gebe, maximal, 600 € für eine Karte aus, denke in dem Preissegment wird AMD weiterhin Karten anbieten.

Ach ist das wirklich alles so?
Ich meine sofern nicht jemand konkrete /Zahlen hat, ist das schwierig.

Meine eigenltich das man in den Bereichen, von denen man Zahlen kennt, oder einsehen kann hat sich AMD gemessen an der Größe sehr gut verkauft... in der oberen Mittelklasse bis Oberklasse. Für High End hat es ja bei der XT(X) ja nicht gereicht.

Dafür ist die RT Lücke zu eklatant.

Wenn AMD schon bei RX7000 etwas mehr Wert auf RT gelegt hätte und, oder funktionierende Performance in VR hätte zu Release liefern können, die nicht hinter dem eigenen Vorgänger zurück lag, dann würde bei mir eine 7900XT(X) werkeln und keine Nvidia.

PS: Also bitte lieber Herr im Himmel, mach das AMD hier mit liest und einen großen RDNA4 bringt. Ich bin bereit ;)
 
Hört sich für mich an wie ob man die Flinte ins Korn geworfen hat im High End Segment vor der Übermacht von Nvidia.
glaub ich jetzt nicht, aber man wird das intern simuliert haben, gemerkt haben, dass man unter der 4090 rauskommt und wozu dann releasen, wenn man sich dann mit dem 2 Jahre alten Konkurrenzmodell abmüht.
AMD hat ziemlich sicher wieder die Deals mit Sony und MS für die neuen Kondolen (PS6, Xbox, ~2028) in der Tasche, und welche Architektur auch immer die verwenden, in die wird wohl im GPU Bereich das meiste investiert und da kommen dann wohl auch wieder Highendmodelle
...Dazu kommt das Radeon zu lange geschlafen hat, was ich sehr schade finde, den Konkurrenz belebt das Geschäft und gerade die Verbraucher haben einen großen Nutzen davon.
Aber sie selbst nicht, die Gewinn und Marktanteile bei den Radeons sind seit mittlerweile fast 10 Jahren eher gering.
Deshalb hat Su dort schon lange den Rotstift angesetzt. Vega und Co hätten vielleicht auch mächtiger sein können, aber da wurde die Entwicklung teilweise kaputtgespart. Zwar wird Koduri die Schuld gegeben, aber es war durchaus bekannt, dass der Abteilung während der Entwicklung immer wieder Leute abgebaut und zur Zen Entwicklung gegeben wurden. War halt wichtiger/finanziell sinnvoller
Man hätte so vieles machen können (Stichwort HBM Speicher etc.), aber wenn man keinen mumm hat, dann ist das so!
Aber gerade da war man vor 10 Jahren (Fury, später Vega) eh mutig

Bei den CPUs konnte man der Übermacht von Intel was entgegen setzen, da hat man sich wirklich dafür gestreckt!
Vielleicht ist man immer noch nicht groß genug überall was entgegen zu setzen
 
Zuletzt bearbeitet:
Juckte bisher auch keinen der Käufer, wie sportlich die Preise da für gleiche Leistung waren, selbst als es statt um Softwarestack und Raytracingleistung nur um Raster-FPS und Bildqualität ging. Der Laden hat in der Vergangenheit auch Rankine, Curie und Fermi überlebt, als die Konkurrenz bei Leistung und Bildqualität leicht bis meilenweit vorne lag.
Man liest immer wieder so ähnliches zur Zeit um Fermi, wie du auch schreibst. Habe aber extra mal alte Teste gewelzt und weder war Fermi langsamer als die Konkurrenz, noch war die Bildqualität schlechter.

Ich persönlich erinnere mich nur an eine Zeit, als AMD bei der Bildqualität in der Kritik stand.

Dazu kommt, das der Großteil heute mit Upscaling zockt. Auch bei den schnellsten Karten und da finde ich das eigentlich noch zu wenig darauf herum geritten wird, das FSR deutlich schlechter aussieht. (In Summe aller Eigenschaften über das Bild)
Bekanntheit und Marktmacht(vor allem im OEM-Bereich)sind ein Hebel der gerade auch hier im Forum immer wieder enorm unterschätzt wird.
Das ist ganz sicher so. Auf der anderen Seite, haben bei AMD zu Bulldozer Zeiten die 8 Kern Werbeaussagen auch ähnliches bewirkt. Von daher auch AMD kann, konnte von ähnlichen Profitieren.

Außerdem sind nicht nur Bonzen unterwegs. Wenn also in den späten neunzigern schon nicht zu wenig Kunden auch bereit waren AMD (damals natürlich ATI in dem Fall) zu kaufen) werden sich heute eher deutlich mehr finden, die auch bereit sind AMD zu kaufen.

Kann mich erinnern 1995 war eher der Preis und die technischen Eckdaten schon wichtiger wie der Name. 1999, könnte auch 1998 gewesen sein ebenfalls ging Preis / Eckdaten vor Name, genau wie 2001 und 2003.

2010 fing es dann mehr an, das die tatsächliche Leistung eher in den Vordergrund getreten sind. Vor einer fixen Preisgrenze, oder Name. So bis heute.

Im Bereich von 1995 bis 2003 waren komplett PCs.

Klar gibt es die anderen Kunden auch, denke da an meine Schwestern. Völlig uninformiert und auch ansonsten mit Technik nichts zu tun.

Da muss es eben Apple sein.
Oder bei der einen dann auch vermutlich Intel/Nvidia.

Bei Intel doch genau das Gleiche: Denen brechen im Endkundensegment weder das aktuelle "K-Instabilitäts-Gate", noch die miese Effizienz unter Last das Genick, weil man im Mediamarkt und bei den OEMs quasi nur die Intel+NVidia-Kombi kaufen kann(und wenn Intel da die bewährten Praktiken anwendet vielleicht auch bald die Intel+Intel-Kombi).
Könnte auch daran liegen, das die CPUs nicht so schlecht sind.

Tatsächlich war mein Rechner zuhause die längste Zeit von der Nutzung her, klar mit Intel CPU im Vorteil.
Für meinen Usecase wäre Intel effizienter gewesen.

Das wird sicher nicht auf jeden zutreffen, aber die Masse fragt auch nicht danach und behauptet blind irgendwas.
Laut meiner Einschätzung hat AMD mit dem Chiplet-Experiment bei GPUs mit echter Funktionstrennung der Chips viele Erfahrungen gesammelt, gerade was Probleme beim Powermanagement angeht, und schiebt diese Generation die ruhige Kugel und released nur, weil der Markt das erwartet. Quasi "Polaris 2", ohne große Experimente in einem Segment, wo eine enorme Marktlücke klafft, die außer Intel momentan niemand ernsthaft bedient(außer mit der Resterampe und 4-8-Lanes-Krüppeln). Falls NVidia so viele ihrer Kapazitäten bei den Auftragsfertigen wie möglich für die großen Chips nutzt, kann die Rechnung da sogar aufgehen und AMD kann sich voll auf die Entwicklung der RX9xxx konzentrieren, während man gleichzeitig den Markt mit Vernunftmodellen flutet.
Der kolportierte RX8xxx-Chip wäre aber nichtsdestotrotz interessant gewesen.
Der letzet Absatz klingt nach Schönreden. ;)
Fragen wir mal den Kopiloten ;)

Anhang anzeigen 1459038

Topic:

Zwar verständlich, aber dennoch schade. Die Gaps zwischen High-End und Mainstream werden noch größer, leistungs- und preistechnisch.
Voll toll, du hast eine KI befragt die da auch noch fragwürdig antwortet.

Von den 99,9% der Spiele, die die KI meint brauchst du für 97% keine fette GPU!

Neue Hardware kauft man miest doch eher für die nur 2-3% der Spiele.
 
Zuletzt bearbeitet:
Durchaus realistisch. Die 7800XT ist schneller, als die 6800XT und die RTX 4070 ist fast so schnell, wie die RTX 3080. Somit gab es bei beiden Herstellern die ehemals zweitbesten Karten in der nächsten Generation eine, bzw. zwei Stufen drunter.
In Welchen Szenario ist die denn schneller die 1,5-3% sind für einen Generationssprung ein Witz und zeigt nur wie machtlos AMD ist.
Screenshot 2024-04-29 074944.png

Screenshot 2024-04-29 075303.png
 
144 CUs ggü 96 CUs der 7900xtx wären bei gleicher Architektur - und abseits von Limits wie Verbrauch - 50% mehr Performance und damit wäre es schon schneller als eine 4090, zumindest im Raster.

Wenn wir jetzt noch RDNA4 Architekturverbesserungen einschließen (sagen wir mal 15%), dann wäre die absolute Leistung gegenüber der 7900xtx 72% höher.

RT soll ja deutlich stärker werden ggü RDNA3. Wenn wir hier 30% annehmen, würde so eine 8900xtx ca 95% schneller sein bei 144 CUs.

Also das fände ich schon sehr spannend und konkurrenzfähig.

Theoretisch schon, aber dann müsste N41 zumindest im Raster das in dieser Leistungsklasse stark um sich greifende CPU-Limit in Teilen umgehen können.

Weil sich Radeons auch unter guten preislichen Bedingungen alleine nicht gut verkaufen. AMD muss rundherum überlegen sein, wie zur Zeit von HD 5000 vs GTX 200, als sie für einige Monate freies Feld hatten.

Und selbst zu HD5000/7000-Zeiten war der Erfolg überschaubar, trotz klar überlegener Technik.
Aber eben, für viele im Mainstream war damals und wohl auch heute noch GeForce ein Synonym für Grafikkarte, wie Intel ein Synonym für CPU war/ist.
 
Soviel wie NVIDIA für seine High End Karten verlangt wird es sehr wohl wirtschaftlich Sinn machen 🤣 für AMD einen Flaggschiff zu Release.


RTX 5080 = 1199$
RX 8900XTX = 1349$
RTX 5090 = 1899$

Mit dem Rückzieher zeigen Sie nur, sie rechnen selbst nicht damit eine RTX 5080 zu übertrumpfen zu können - dann wird es nämlich unrentabel mit den Preisen.
Selbst wenn Sie Nvidia übertrumpfen würden, wäre der Absatz wahrscheinlich dennoch nicht viel besser.

Die Vergangenheit hat es doch gezeigt. Selbst wenn AMD eine bessere Karte im gleichen Preissegment anbietet, kauft die Mehrheit dennoch Nvidia, da bei vielen einfach in den Köpfen hängt, dass deren Karten besser sind.

Für AMD geht es in erster Linie darum Marktanteile zu generieren. Das geht am besten im mittleren bis unteren Preissegment. Lieber 100 zufriedene Kunden im Kleinen als 5 mit Highend. Denn wer einmal zufriedener Kunde ist, der hat weniger Wechseltendenz und wird vielleicht auch mal ins höhere Preissegment wechseln.

Die Strategie von AMD ist absolut sinnvoll.
 
Man liest immer wieder so ähnliches zur Zeit um Fermi, wie du auch schreibst. Habe aber extra mal alte Teste gewelzt und weder war Fermi langsamer als die Konkurrenz, noch war die Bildqualität schlechter.
Fermi war nur super heiß(also die GTX 5xx), doch die Bildqualität war in der Regel in Ordnung. Falls da mal was war, wars ein Treiberbug(glaub da stimmte was mit dem Texturfilter in Kombi mit AA bei einer Version nicht; meine mich sogar an einen Artikel mit Crysis-Screens in der PCGH zu erinnern). Leistungsmäßig war das die Zeit der Dualchipkarten und Multigpu und AMD hat damals die neuen Karten regelmäßig vor der Konkurrenz released, das verschiebt die Wahrnehmung natürlich ein wenig, wenn einer vorlegt und der andere "nur" nachzieht. Was Fermi angeht ist meine Aussage da zugegebenermaßen etwas unscharf gewesen.
 
Zuletzt bearbeitet:
In Welchen Szenario ist die denn schneller die 1,5-3% sind für einen Generationssprung ein Witz und zeigt nur wie machtlos AMD ist.
Anhang anzeigen 1459066
Naja, hier hat AMD es eher mit der Bezeichnung verhauen. Die 7800XT müsste eher eine 7800nonXT sein, da im Prinzip die 7900GRE eigentlich eine 7800XT ist.
Nichts desto Trotz ist die 7800XT in Raytracing besser als die 6800XT und auch in einigen modernen Games kann sie sich besser absetzen.
 
Zurück