News "Huangsches Gesetz": Nvidia gibt Ausblicke auf die Post-Moore-Ära



Das ist dann die Perversion von Moore.

Denn das Grundprinzip hat NVIDIA in dieser Generation quasi wieder bestätigt. Sie erreichen mit simplen Chips hohe Leistung, teils durch günstige Software-Features. Da haben wir Chips mit 50er Specs, aus denen NVIDIA dann 60er bis 70er Karten zaubert.

Der Haken? Die Kosten- bzw. Preisentwicklung, die Moore beschrieben hat, kommt beim Kunden nicht mehr an, sondern wandert fast ausschließlich in NVIDIAs und teilweise in TSMCs Tasche zur Margenausweitung.

Das hier. Und der Schnellschuss ohne Prüfung was das "schnelle Aufgreifen" angeht. Du hast anscheinend nach etwas gesucht um Nvidia / Jensen in ein schlechtes Licht zu rücken und dachtest Du hast es gefunden.

Edit: Simple Chips, simple Software-Features, wenn das alles so simpel wäre, warum schafft es dann kein anderer gleichzuziehen? Wohl doch nicht so simpel?

Und dass die Margen nicht um drölfzig Prozent gestiegen sind kann man auch ganz leicht herausfinden. +-5%, wow, Abzocke! Dass kleinere Prozesse die Wafer teurer machen, egal! Die bösen Konzerne zocken uns alle ab!

Ich habe eine einfache Lösung: nicht kaufen. So einfach ist das. Wenn man das so macht sollte man natürlich auch nicht im Forum hetzen weil man sich das Hightech Spielzeug nicht leisten kann oder will.

Cutting Edge Tech war schon immer teuer. PCs haben früher viel mehr gekostet im Verhältnis. Ich hatte damals einen Pentium 2 mit 450Mhz, das Teil hat über 2000 DM gekostet. Und da war garkeine Grafikkarte drin. :ugly:
 
Zuletzt bearbeitet von einem Moderator:
Bei dem Titel und der "Moderation" war doch leider vorhersehbar das die üblichen Verdächtigen sehr schnell auftauchen %-).

Das Huangesche Gesetz geht doch ins Ohr und generell interessant die Sichtweise eines Visionärs und seiner Firma. Mal sehen ab welcher Transistorstruktur man dann tatsächlich nahezu zum Stillstand kommt und was Nvidia noch im Köcher hat.
 
Nope, die wurden nur beschnitten und heißen nun xx90.

Nein, die 90er sind die 80Ti, die Namenstechnisch platz machen mußten. Die Titan ist ersatzlos gestrichen worden, die 90er haben weder die Profifunktionen, noch einen komplett abgedrehten Speicherausbau.

Man kann es auch preislich ganz einfach erkennen: die RTX 2080Ti hatte eine UVP von 1349€, die RTX Titan war hingegen für 2749€ zu haben. Die RTX 3090 ist hingegen für 1499€ an den Start gegangen. Wer ist nun der Vorgänger? Die RTX 2080Ti, was auf eine Preissteigerung vom 11% entspricht oder die RTX Titan, was eine Preissenkung von 45% bedeutet.

Nvidia und freiwillig Preise senken? Alles klar und dann sollen sie auch noch die Titan für fast die Hälfte angeboten haben? Weil sie Zocker so lieben.

Der RTX 3090 haben die Profifunktionen und nochmal 24GB RAM gefehlt, um eine Titan sein zu können.

Die Titan ist tot, weil sie die Quadros kannibalisiert hat, es gibt auch keinen würdigen Ersatz.
 
Nein, die 90er sind die 80Ti, die Namenstechnisch platz machen mußten. Die Titan ist ersatzlos gestrichen worden, die 90er haben weder die Profifunktionen, noch einen komplett abgedrehten Speicherausbau.
24 GB VRAM, doch, sie ersetzen die Titan. Ob du das anders siehst, ist mir egal.
Die 2080 TI hatte 11 GB VRAM und die 3090 24 GB. Nie im Leben bohrt Nv den VRAM für den Nachfolger so auf.

1080 TI - 11 GB
2080 TI - 11 GB
3080 TI - 12 GB
Titan RTX - 24 GB
3090 - 24 GB
4090 - 24 GB

Was hier eher passt, sollte doch sogar dir auffallen.
Nvidia verglich die 3090 mehrfach selbst mit der Titan:
3090.png

Die 90er Karten haben Titanleistung, nur nicht die Treiber.

Die 5090 soll wohl sogar 32 GB bekommen. Spiele lasten die 24 GB schon nicht aus, also wozu 32 GB?
Für Content Creation und wofür diente die Titan? Achja, auch für Content Creation und Scientific workloads, dabei waren die Quadros eigentlich für letzteres gedacht.

Man kann es auch preislich ganz einfach erkennen: die RTX 2080Ti hatte eine UVP von 1349€, die RTX Titan war hingegen für 2749€ zu haben. Die RTX 3090 ist hingegen für 1499€ an den Start gegangen. Wer ist nun der Vorgänger? Die RTX 2080Ti, was auf eine Preissteigerung vom 11% entspricht oder die RTX Titan, was eine Preissenkung von 45% bedeutet.

Nvidia und freiwillig Preise senken? Alles klar und dann sollen sie auch noch die Titan für fast die Hälfte angeboten haben? Weil sie Zocker so lieben.
Dass die Quadros wesentlich günstiger geworden sind, ist dir aber klar?
Nach der Logik haben die auch keine echten Nachfolger, weil die Vorgänger günstiger waren :ugly:
 
Zuletzt bearbeitet:
Irgendwann ist halt Ende im Gelände, wenn sich außer der Fertigung nichts weiter ändert. Da wird sicher bald eine Grenze erreicht werden an der es sich finanziell nicht mehr lohnt. Spätestens dann muss ein neuer Weg eingeschlagen werden.
Ja, eine neue Zeit beginnt und die GPU Hersteller verändern Ihre Chips in Richtung KI.

Wir stehen an der Schwelle des Zeitalters der KI. In 30 Jahren werden wir zurückblicken und sagen: "Wir waren dabei als es los ging".

Elons Musk hat recht, wenn er sagt das sich unser Energieverbrauch multiplizieren wird. Die Welt wird sich aufgrund KI gewaltig ändern (positiv, wie negativ)

Natürlich sind dann KI-lose Grafikkarten, die nur auf Rastering setzen, längst verschwunden und deren Vertreter verstummt.
 
Die 2080 TI hatte 11 GB VRAM und die 3090 24 GB. Nie im Leben bohrt Nv den VRAM für den Nachfolger so auf.

Laß mich überlegen:
GTX 980Ti 6GB -> GTX 1080Ti 11GB
GTX 780Ti 3GB -> GTX 980Ti 6GB
GTX 980 4GB -> GTX 1080 8GB
GTX 770 2GB -> GTX 970 4GB

Kommt also öfter vor. Nach so einer langen Zeit des Speichergeiz war das ganze mehr als überfällig

Das wichtigste ist allerdings: es war absolut klar, dass AMD mit 16GB an den Start gehen wird, wenn deren GPUs ein 256 oder 512 Bit interface hätten und wahrscheinlich mit 24GB, wenn es 384 Bit geworden wären. 16GB waren mit dem 384 Bit Interface, von Nvidia nicht möglich, also wurden es 24GB. Die 24GB waren damit quasi Pflicht und längst überfällig.

Was hier eher passt, sollte doch sogar dir auffallen.

Wie gesagt: die Preise, das sollte eigentlich auch durch das härteste, von Nvidia vernebelte Hirn dringen.

Ernsthaft: glaubst du wirklich, dass Nvidia den Preis für die Titan um 45% gesenkt hat?

Nvidia verglich die 3090 mehrfach selbst mit der Titan:

Klar, das hätte jeder gemacht, wenn er so eine Kartenline eingestellt hätte. Man muß ihnen aber nicht jeden Blödsinn glauben..

Die 90er Karten haben Titanleistung, nur nicht die Treiber.

"Titanleistung", was soll das eigentlich bedeuten? Die einzige Titan, mit wirklich wesentlich mehr Leistung, war die aller erste. Danach hatte man gegenüber der 80Ti etwa 10% Leistungsvorteil, hauptsächlich durch den Vollausbau des Chips (Ausnahme: Pascal Titan GTX).

Die einzigen Dinge, die sie wirklich abgehoben haben, waren einerseits die Profifunktionen und der meist wahnsinnig große VRAM. Beides haben die 90er Karten nicht und damit sind sie auch keine Nachfolger, zu den Titanen.

Die 5090 soll wohl sogar 32 GB bekommen. Spiele lasten die 24 GB schon nicht aus, also wozu 32 GB?

Als die GTX 980Ti herauskam konnte man etwa 3GB sinnvoll auslasten (bis dann irgendwann Rise of the Tombraider kam), die GTX 980Ti hatte mit 6GB doppelt soviel, wie das, womit man damals sinnvoll etwas anfangen konnte. Die Maxwell Titan X hatte hingegen 12GB, das vierfache dessen. Bei der GTX 1080Ti waren es dann 8GB, die Fallout 4 auslasten konnte und die Karte hatte 11GB, also knapp das 1,5 fache.

Heute sind wir bei so etwa 16GB, die Spiele maximal ausnutzen können. 32GB wäre also "nur" das doppelte und damit relativ etwa so viel, wie die GTX 980Ti geboten hat. Von daher passt das wieder sehr gut zu dem, was ich gesagt habe. 64GB wären relativ soviel, wie die Maxwell Titan X geboten hat. Im übrigen ist es noch ein ganzes Jahr hin, bis die RTX 5090 erscheint. Eventuell kommt ja noch ein Spiel, dass auch die 24GB vollstopft, dann würden die 32GB garnicht mehr so üppig wirken

Warum 32GB? Weil die logischen Schritte, bei einem 512 Bit Interface, nunmal 8, 16, 32 und 64GB sind. Mit 16GB könnte es passieren, dass Spiele draußen sind, die die RTX 5090 nicht mehr mit Ultra Details bewältigen kann, das wäre etwas peinlich. Außerdem würde Die RTX 5090 dann weniger VRAM , als ihre Vorvorgängerin haben, noch peinlicher. Zu guter Letzt ist die Frage, womit AMD antreten wird. Hinter den 24GB werden die wohl nicht zurücktreten, es kann auch sein, dass die mit 32GB kommen.

Wobei man sich eines unbedingt vor Augen halten muß: wir reden hier über Gerüchte, nicht mehr. Bei der RTX 2080Ti hat man sich im Vorfeld gestritten, ob es 16GB, an einem 512Bit Interface werden oder doch 22GB an einem 352Bit Interface. Der Abend der Präsentation kam und sorgte für lange Gesichter: es waren wieder nur 11GB. Von daher kann es durchaus sein, dass Nvidia wieder mit 24GB antritt, das würde auch passen.

Für Content Creation und wofür diente die Titan? Achja, auch für Content Creation und Scientific workloads, dabei waren die Quadros eigentlich für letzteres gedacht.

Nein, die Titanen waren eigentlich für die Zocker gedacht, die bereit sind, viel Geld auszugeben, um das absolut ultimative zu bekommen. Alle anderen sollten zur Quadro greifen. Hast nicht funktioniert, drum wurde sie gestrichen.

Dass die Quadros wesentlich günstiger geworden sind, ist dir aber klar?
Nach der Logik haben die auch keine echten Nachfolger, weil die Vorgänger günstiger waren :ugly:

Wieviel kostet die RTX 6000? 10000€? Bei Idealo ist sie momentan für 9300€ drin. Früher haben die besten Quadros 6000€ gekostet, ist also ein Preisanstieg von 67%. Soviel zum Thema "günstiger".

Da hast du dir ein sehr blödes Beispiel rausgesucht.
 
Zuletzt bearbeitet:
Edit: Simple Chips, simple Software-Features, wenn das alles so simpel wäre, warum schafft es dann kein anderer gleichzuziehen? Wohl doch nicht so simpel?

Bei dem Bild, das sich bei deinen Postings mittlerweile ergibt, frag ich mich ernsthaft, ob eine Diskussion so richtig Sinn macht.

Moores Law hat eine entscheidende Kostenkomponente.
Leistungssteigerung ist nicht proportional zu Preissteigerung. Wenn dem so wäre, gäbe es keinen technologischen Fortschritt.

Und das nimmt NVIDIA weitestgehend aus der Gleichung. Moores Law ist deshalb nur halbtot. Weil der Transistorcount kommt irgendwie noch hin. Die Kostensteigerungen nehmen zu, aber wir drücken mal ein Auge zu. Aber nun kommt noch NVIDIA. ;)

Edit: Simple Chips, simple Software-Features, wenn das alles so simpel wäre, warum schafft es dann kein anderer gleichzuziehen? Wohl doch nicht so simpel?
Danke für das gezielte Missverstehen.

NVIDIA macht eine Art Upsampling. Das kann man ganz einfach nachvollziehen, wenn man die Specs der Chips wie Transistor-Count, Die-Size etc. nebeneinanderlegt. Das, was sie heute als oder 4060 Ti anbieten, wäre in den letzten Generationen auch als 50er Modell durchgegangen.

Sprich simpler Chip, garantiert keine allzu hohen Produktionskosten. Aber wir machen daraus eine teurere Karte mit deutlich mehr Marge. Wieviel Preisspielraum NVIDIA mittlerweile hat, sieht man an den bereits im anderen Thread zitierten Preisnachlässen. Und dieses Upsampling kann man im Prinzip mit fast allen Karten mit Ausnahme der 4090 durchspielen.

simple Software-Features
Hab ich das geschrieben? Oder geht es wieder im gezieltes Missverstehen wollen? Ich schrieb günstig. Und das ist nunmal so, dass Software-Entwicklung, vor allem aber die Evolution solcher Features günstiger ist, als wenn deine Produkte jeden Tag in einer Fab vom Band rollen mit allem was dahinter hängt.

Und dass die Margen nicht um drölfzig Prozent gestiegen sind kann man auch ganz leicht herausfinden. +-5%, wow, Abzocke!
Jetzt müsste man nur noch wissen, wie sich Margen zusammensetzen und ob in dem Zusammenhang 5% viel oder wenig sind. Du kannst die +/- 5% natürlich auch kurz ins Verhältnis setzen zu dem, was bei den AIB-Partnern hängen bleibt. Wie im anderen Thread im Falle von PC Partner kurz angedeutet. Die hatten in der ersten Jahreshälfe eine Bruttomarge von 7,8%. Sind da +/- 5% nun viel oder wenig?

Dass kleinere Prozesse die Wafer teurer machen, egal
Die Entwicklungs- und Aufbaukosten. Wenn die Prozesse erstmal mit einer vernünftigen Yieldrate laufen, dann ist das langfristig eine Lizenz zum Gelddrucken. Und neben höheren Kosten möchte ein Unternehmen wie TSMC mit > 50% Marktanteil und auf den neuesten Nodes momentan fast ohne Konkurrenz die Marktsituation natürlich auch gerne zum Geldverdienen nutzen.

Wenn es hier Wettbewerb gäbe, dann würden sich andere anbieten. Wer weiß, wie die Entwicklung weitergeht und ob NVIDIA nicht vielleicht aus Kosten- oder Kapazutätsgründen zumindest die Gaming-Produkte zu Samsung rüberschiebt. Oder gar zu Intel.

Die bösen Konzerne zocken uns alle ab!
Wenn du das Abzocke nennen möchtest. Ich bin Kunde und Gamer und deshalb ist das meine Perspektive auf die Preisentwicklung. Und da habe ich seit einiger Zeit leider den Eindruck, dass NVIDIA diese Kunden nicht mehr so richtig lieb hat. ;)
Und der Schnellschuss ohne Prüfung was das "schnelle Aufgreifen" angeht.

Jetzt habe ich in dem Punkt einen Fehler eingeräumt. Nur leider scheinst du damit nicht umgehen zu können.
 
Es gibt gründe warum nvidia ihre Produkte so benennt und das ist die Konkurrenz
Selbst nvidia kennt amd pläne nicht und die sind sehr an der entwicklung vond er fertigung abhängig. mcm wird noch vermehrt Thema werden in den nächsten jahren abr anders als viele denken
Wenn man die patente durchgeht von amd wird schnell klar das amd nuer eins aufhäölt und das ist die frtigung ähnlich zu intel von 2014-2020 stagnieren wir gerade bei der latenz zwischen verschiendener chipmodule das wird aufgebrochen sobald es n2x mit gaa und die chip verbindungen übereinander gelöszt sind undd es wenioger zu wämrestaus führt
Das resultat ist ab n1,8 das auf der fläche die chips gestapelt sind und in der höher die alu das kan man bis zu 4 lagen machen .
Speich aus einen 70mm² chip mit einen nicht mehr steigenden SI das sich erst bei gaa verkleinern wird .sidn aus planar 48sm (36sm als konsumenten chip) dann auch 46sm aktiv dann eben bis zu 4 mal soviel.
Und die kosten bleiben etwa gleich bzw Teuer den tsmc bezahlt man pro mm²
also muss man ab dem nachfolger von n1,8 sich was einfallen lassen im low end.
Den ab dann steigen die kosten pro chip stark an. Ich nehmen an das man mit zwei lagen anfängt und es im low end bei 36 bis 72sm kommen wird je nachdem wie groß der darüberliegendee si und sram wird in n4x.
Dabei nehme ich an das man die 16-18sm nimmt. =32 oder 36sm
Das derzeitige gerücht spricht von 16sm pro gpc ist aebr ein umbau der ada Architektur im sm selber ändet sich nix
N3 verspricht 15% Takt, n2 25% Takt, n2x gaa, n1,8 10% 3d chips
aus derzeit 2,8ghz wird 3,2 4,0ghz und zuletzt 4,4ghz bei nicht geändertem design
Womit ich von 4,0ghz gpu ab 2028 ausgehe amd wird wenn rdna3 gefixt wird schon 2026 die 4,0ghz gpu haben und 2028 dann 4,5ghz oder amd wird mit rdna5 vorausbrechen und erste mcm in 3d design ermöglichen mit reduziertem Takt ich gehe von maximal 2,5ghz aus. In n3 node.
Dafür steigt die Anzahl an alu im chip drastisch an ab 128cu auf etwa 200mm²
nehme ich amd ipc der Architektur komme ich da auf etwa 47tf
Der refresh dessen in n2 wird en Takt um 25% steigern =3,1ghzergeben etwa 3,8ghz 75tf
daher nehme ich stark an das man rdna5 auf n2 setzen will darum wird rdna4 nicht geben 2024 2025 und rdan5 erst q2 2026 soweit sein.
n2x bietet ne Struktur Verkleinerung und somit die Möglichkeit auf 256 alu zu kommen was die perf verdoppelt dann also 150tf
Das wäre so wenn man auf 190m² sich festlegt bei 280mm² wird das nochmals mehr 192 alu das sind schon 2 lagen
halbierte Größe dann 384 alu ab n2x 2028 bei 3,8ghz 220tf
nvidia kann mit aktuellem design maximal auf 288sm gehen dafür beim Takt maximal bis 4,0ghz kommen.
was in etwa das bedeutet
288 *88*2*4,0= 202tf damit wären 4,4ghz ab n1,8 Pflicht
und der node kommt erst 2029 bzw 2030

eine Änderung an der arch ist unabwendbar

Zur info ab n2 wird die waferbelichtung auf maximal 420mm² begrenzt
aktuell sind es 850mm²
nvidia Fläche ist aktuell bei maximal 609mm² in n5 144sm
n3 maximal 650mm² bei 192sm
n2x maximal 368mm² mit 288sm 4,0ghz 202tf
Eine Änderung der arch würde das auf 18sm per gpc 120 fp32 (112fp32 nativ) auf etwa 12gpc sein =216sm
216*120*2*3,5=184tf
mehr geht nicht und man muss in die höhe das spricht alles dafür das nvidia sich der ada design beibehält und nur die gpc Struktur ändert von 12sm auf 16sm
Was den ersten Weg beschreibt also

rtx50 maxed 192sm 104tf in q3 2024
rtx60 maxed 288sm 4,0ghz 202tf in q1 2027

amd rx8000 maxed 64cu 32tf in q4 2024-q1 2025
amd rx9000 maxed 384cu 220tf in q2-q4 2026

meine Prognosen betreffen aktuellen Gerüchten wohin die reise geht dabei ist amd die treibende kraft wenn mcm klappt hat nvidia ein Problem den dafür hat nvidia derzeit kein Rezept außer auf tsmc n1,8 abzuwarten .
Den nvidia hat keine patente für ein mcm Modullbauweise von gpu. Das ist wenn nur planar und da hat amd schon gezeigt das dies ohne Abzüge von latenz nix bringen wird.
Und nvidia wird ihren fp32 Ansatz nicht aufgeben. Dann bräuchte man ein Komplettes neues Treiberteam und eine Änderung der Philosophie hin zu Software emulation von fp32 in einen fp64 design und das zeigt intel schon das dies eine Aufgabe wäre die man sich nicht antun will.
Amd gcn war auch fp64 und man hat das fürn natives fp32 system umgestellt (rdna) seitdem läuft es rund nur mcm hat nen latenzproblem. das nur durch Takt gelöst werden kann.
Das haben sie mit rdna4 gelöst nur eben das mcm noch nicht.

Je näher wir dem release dieser arch kommen desto genauer wird meine Prognose das sind voll ausbauchips die durch sku Anpassungen (yiel9d die Leistung sich verringert.

mein Fokus liegt beim mainstream markt also was die ps6 und xbox leisten wird ab 2028 da sind es 30tf das ziel derzeit
das nvidia solange wie möglich die sku preise hoch halten will ist klar
Das man ab 2026 die krone verliert steht sicher.

amd rx8600 ab 17tf ab 300$ 12gb q2 2024 (n43 32cu 3,55ghz)
nvidia rtx5060 16tf ab 320$ 9gb q2 2024 (gb207 30sm 3,1ghz)
amd rx8700xt 28tf ab 450$ 12gb q3 2024 (n48 56cu 3,1ghz)
nvidia rtx5060ti 26tf ab 450$ 12gb q2 2024 (gb206 48sm 3,1ghz)

keine guten Aussichten für mich.
 
Es gibt gründe warum nvidia ihre Produkte so benennt und das ist die Konkurrenz

Warum? NVIDIA treibt doch die Entwicklung voran, nicht AMD. Am Ende ist es das besagte Upsampling, um neue und höhere Preisstrukturen zu etablieren. Und teilweise macht AMD das im Windschatten von NVIDIA leider mit.

Und ist AMD wirklich Konkurrenz? Da kann man Zweifel haben.

Gerade bei den größeren Modellen braucht AMD erheblich größere Chips als NVIDIA für in etwa die gleiche Raster-Performance. D.h. AMD-Grafikkarten dürften von den Produktionskosten her deutlich teurer sein als ihre NVIDIA-Gegenstücke, trotz Chiplet. Und selbst wenn sie beim Rastern mithalten können, sind sie bei der Effizienz, beim Raytracing und bei diversen Software-Features, vor allem natürlich beim Upsampling, nicht konkurrenzfähig.

Momentan kann AMD wieder mal nur über den Preis konkurrieren, hat aber vermutlich deutlich, deutlich weniger Preisspielraum als NVIDIA. D.h. wenn NVIDIA wirklich möchte, könnten sie an der Preisfront alles kontern.

Und je wichtiger DLSS & Co. werden, desto mehr wird sich das auch auf der Kostenseite niederschlagen. NVIDIA braucht für eine bestimmte Leistung einfach deutlich weniger Hardware. Und momentan sieht es leider überhaupt nicht danach aus, als ob AMD hier würde mithalten können.
 
Zuletzt bearbeitet:
Da liegste falsch amd mcm chips sidn am ende billiger als nvidia monolithischer ad102
Ein ad102 kostet vollwertig 400$
Der cut nur 205$
amd mcm n31 liegt bei etwa 150$
amd hatte aber geplant nvidia high end anzugreifen bis man den Fehler entdeckt hatte und schnell Schadensbegrenzung machen musste.
 
Da liegste falsch amd mcm chips sidn am ende billiger als nvidia monolithischer ad102
Ein ad102 kostet vollwertig 400$
Der cut nur 205$
amd mcm n31 liegt bei etwa 150$
amd hatte aber geplant nvidia high end anzugreifen bis man den Fehler entdeckt hatte und schnell Schadensbegrenzung machen musste.

Ok, kannst du kurz sagen, woher du die Zahlen hast? :)

Vielleicht hab ich da einen Denkfehler, aber ich bin jetzt einfach vom Die-Size ausgegangen. Der AD104 auf einer 4070 Ti soll 294 mm² groß sein. GCD auf dem Navi31 der 7900XT 304.35 mm² plus obendrauf noch MCD. Und der Rest der Karte abseits der GPU ist bei AMD nochmal deutlich komplexer als bei NVIDIA.

Ähnlich sieht es im Vergleich zum AD103 aus.
Es gab mal von einem Twitter-"Leaker" (finds grad nicht) eine BOM, die eine 4080 bei 300$ sah, die 7900XT(X) mindestens 50% teurer. Keine Ahnung, ob das Substanz hatte oder einfach nur spekuliert.

AD102 mag teuerer sein, aber der spielt auch in einer komplett eigenen Liga.

Weniger ungünstig wird es für AMD erst bei den kleineren Karten.
 
Zuletzt bearbeitet:
Zurück