Nvidia Ampere: GA100-GPU angeblich mit 8.192 Shadern und bis zu 48 GiByte HBM2e


Meinst du nicht eher 2080Ti 4K = 93,8%
5700XT 4K = 61,4%

2080ti +50% ~ 5700xt + 110%

Nach den Computerbase Werten entspräche das 5700XT +129,4%.

Auch denke ich das big Navi mehr als 100% draufpackt.

In 1080p limitiert der Prozessor, somit begünstigt deine Rechnung AMD´s Werte um etwa 20% Punkte.
Eine Milchmädchenrechnung wie diese, würde nur in 4K klappen.
Bei den kraßen Steigerungen laufen die GPUs <4K stabil in die Arme des Prozessors.
 
Zuletzt bearbeitet:
Nein, ich meine die Werte die ich genommen habe!

Was soll das denn für eine Frage sein,
dein Teil vom Bild is aba falsch, oder was soll mir das sagen?

Kannst das Ganze ja gerne noch um andere Auflösungen ergänzen. Deswegen sind meine Werte aber immer noch richtig.

Grüße
 
Meinst du nicht eher 2080Ti 4K = 93,8%
5700XT 4K = 61,4%



Nach den Computerbase Werten entspräche das 5700XT +129,4%.



In 1080p limitiert der Prozessor, somit begünstigt deine Rechnung AMD´s Werte um etwa 20% Punkte.
Eine Milchmädchenrechnung wie diese, würde nur in 4K klappen.
Bei den kraßen Steigerungen laufen die GPUs <4K stabil in die Arme des Prozessors.

Alta rechne mir meinen Fehler vor anstatt zu behaupten, "nach den Werten wäre das so", dass ist nämlich noch viel Schlimmer als Michmädchen-Rechnung weil nämlich null Rechnung aber viel heiße Luft.
Das mit 4K lass ich gelten der Rest ist echt daneben

Sry ich kann nicht anders.
Läuft es bei Dir? oder läuft'S bei Dir?
Krass, kurzes a. Nicht KrAAAaaß
und Du meinst wohl die Rechnung würde nur in 1080p klappen.
 
Zuletzt bearbeitet:
Nein, ich meine die Werte die ich genommen habe!

Dann mußt du den prozentualen Einfluss des Prozessors berechnen, etwas was man nicht mal abschätzen kann.
Du schlägst auf die 5700XT 130% in Full HD auf, wobei bereits die 2080 Ti in die Arme des Prozessors läuft und sich nur 40% in 1080p absetzen kann.
In UHD sind es 53%.
Kannst das Ganze ja gerne noch um andere Auflösungen ergänzen. Deswegen sind meine Werte aber immer noch richtig.

Deine Werte können niemals richtig sein, da du wie schon gesagt den Prozessoreinfluss nicht beachtest.
Nimm 4K Leistungswerte, dann hatt es einen Sinn, darunter ist das Zeitverschwendung.
 
Entspräche 5700XT +100% Performance als absolutes Minimum.
2x 225W * 0,66 =~300 Watt, von einer perfekten Skalierung und gleichbleibender Taktrate ausgehend.

2080Ti + 50% entspräche einer Radeon 5700XT + 130%.
Hieße Nvidia gewinne keinen Blumentopf mit der 2,3 fachen Performance einer 5700XT.
Ich glaube du wirst dich wundern, wie weit sich deine Vorstellungen von der Realität unterscheiden werden.
Von wo habt ihr nur immer die 2x225W her?
Man kann doch nicht einfach die TBP (Total board power 225W) der RX5700XT einfach verdoppeln.
Die TDP (Thermal design power bzw. GPU power)beträgt im übrigen nur 180W.
Die 45W Differenz entstammen also von den Board spezifischen Verbrauchern: Beim GDDR6 Speicher wären das ca. 2W /pro 1GB Modul bzw. 16W bei 8GB Speicher plus Lüfter (10W) und den restliche PCB bezogenen Verbrauchern, Spannungswandlern etc.
Wenn man nach den Messungen von Igors Lab geht könnte die reale TDP wohl auch eher bei nur 160W liegen aber egal rechnen wir mit 180W bzw. 225W
TDP Navi 10.png

Leistungsaufnahme: TDP, TBP und TGP bei Nvidia und AMD'-'Grafikkarten nachgerechnet samt Zerstoerung einer PR'-'Folie | igorsLAB | Seite 3 | igor sLAB

180W x2 = 360W + 12GB (24W) bzw. + 16GB (32W) + 10W + einige W für den Rest, Summa summarum komme ich auf ca. 60W anstatt den 90W Differenz ist ja auch logisch man muss auch nur ein PCB mit Strom versorgen und nicht zwei Mal und schon sind wir bei 420 und nicht 450W.
Jetzt noch die 420W x 0.667 (+50% P/W) = 280W
Die: XFX Radeon RX 5700 XT THICC2, RAW2 oder die PowerColor 5700 XT Red Devil S Verbrauchen bei einer fast identischen Leistung verglichen mit dem Referenzdesign z.B. nur 200W
2 x 200W = 400W (380W) x 0.667 = 250W XFX Radeon RX 5700 XT RAW2 im Test: WQHD-Benchmarks, Lautstaerke, sonstige Messungen und Fazit - ComputerBase

ergo 250W 2080ti +30% bzw. 300W 2080ti +50% (Wenn man bedenkt das die GPU alleine nur für je nach Sichtweise 2/3 bzw. 3/4 des gesamten Verbrauch verantwortlich ist dann sollte man nicht unterschätzen was mit zusätzlichen 30 - 50W noch machbar ist.

Wenn man es also ein wenig intelligent anstellt und glaub mir bei AMD arbeiten sehr viele sehr intelligente Leute,
werden sie schon genau wissen wo das letzte Quäntchen Energieersparnis noch zu holen ist.
 
Das ist mit Verlaub wahrscheinlich ausgemachter Blödsinn Wunschdenken. So viele Shader wird man höchsten in einer Titan bekommen, die auf dem GA100 Chip basiert, mit z.B. 24GB HBM2.

Titan/Quadro war immer Vollausbau, also alle 8192 Shader. Die TI lag meistens minimal darunter, womit ich bei 7800 ziemlich richtig liegen könnte.
Titan RTX 4608 Shader - 2080 TI 4352.
 
Dann mußt du den prozentualen Einfluss des Prozessors berechnen, etwas was man nicht mal abschätzen kann.
Du schlägst auf die 5700XT 130% in Full HD auf, wobei bereits die 2080 Ti in die Arme des Prozessors läuft und sich nur 40% in 1080p absetzen kann.
In UHD sind es 53%.


Deine Werte können niemals richtig sein, da du wie schon gesagt den Prozessoreinfluss nicht beachtest.
Nimm 4K Leistungswerte, dann hatt es einen Sinn, darunter ist das Zeitverschwendung.

Wobei in UHD die 11GB auch einen kleinen Einfluss haben können.
Am besten vergleicht man die TFLOPS miteinander 9.75 vs. 14.2 = 1.45 ---> 200% (2x 5700XT) entspricht 145% (1x 2080ti) = 200/145*100 = 138%
Falls jemand drauf besteht kann man der 2080ti noch zusätzliche 5% zuschlagen dann sind wir bei 133%
 
Titan/Quadro war immer Vollausbau, also alle 8192 Shader. Die TI lag meistens minimal darunter, womit ich bei 7800 ziemlich richtig liegen könnte.
Titan RTX 4608 Shader - 2080 TI 4352.

Das schon - es ist aber keineswegs gesagt, dass der HPC-Chip überhaupt auf Spielerkarten genutz wird. Beispielsweise Volta mit seinen 5120 Shadern ist niemals als Geforce erschienen.

Ob NVidia ihr 8000-Shader Monster in den Endkundenmarkt als Geforce entlässt ist einzig davon abhängig wie stark Navi wird. Wenn es ausreicht, einen kleineren sagen wir grob 6000-Shader Ableger als 3080Ti zu bringen und damit deutlich vorne zu bleiben wird man mit dem 8000er im profisegment bleiben und 5000-10000€ pro Kartte verlangen statt sie im Spielermarkt zu "verramschen".

Oder die Titan A kostet halt 5000€. Auch gut.^^
 
Hätte denn, ein sagen wir mal 1500 -2000€ teurer 3080ti mit 7800 (Die Size ca. 800mm2)
der 25% schneller wäre als ein halb so teurer big Navi irgend eine Relevanz am Markt?
Wegen 25%???? Das merkt man doch kaum.
 
Das schon - es ist aber keineswegs gesagt, dass der HPC-Chip überhaupt auf Spielerkarten genutz wird. Beispielsweise Volta mit seinen 5120 Shadern ist niemals als Geforce erschienen.
Volta war auch nie als Gamingchip geplant. Ampere schon.

Ob NVidia ihr 8000-Shader Monster in den Endkundenmarkt als Geforce entlässt ist einzig davon abhängig wie stark Navi wird. Wenn es ausreicht, einen kleineren sagen wir grob 6000-Shader Ableger als 3080Ti zu bringen und damit deutlich vorne zu bleiben wird man mit dem 8000er im profisegment bleiben und 5000-10000€ pro Kartte verlangen statt sie im Spielermarkt zu "verramschen".

Oder die Titan A kostet halt 5000€. Auch gut.^^
Die neu AMD GPU wird ne Ecke schneller sein, als die TI/Titan. Da reichen Ti + 30% für Nvidia nicht.
 
Hätte denn, ein sagen wir mal 1500 -2000€ teurer 3080ti mit 7800 (Die Size ca. 800mm2)
der 25% schneller wäre als ein halb so teurer big Navi irgend eine Relevanz am Markt?
Wegen 25%???? Das merkt man doch kaum.

Die Marktrelevanz derart teurer Karten geht in der breiten masse (also nicht uns Irren^^) sowieso hart gegen Null. Karten wie die 2080Ti oder Titan sind Prestigeprodukte, keine Massenware. Ob die Titan Ampere jetzt 10 oder 20 oder 30% schneller ist als die Konkurrenz und ob sie 1500 oder 3000 oder 5000€ kostet spielt keine große Rolle - Hauptsache man hat den schnellsten.

Oder anders gesagt: Wer noch irgendwie aufs Geld schauen muss wenn man von Bereichen von weit über Tausend Euro für ne GPU redet ist sowieso nicht Zielgruppe. Hier gehts um Menschen, die zigtausend Euro jedes Jahr über haben und nicht mehr wissen was sie damit anstellen sollen.
 
Der Titan Ampere Käufer ist der, der schon ein Rennpferd im Stall hat und gelangweilt an einem Bugatti Chiron vorbei geht. :ugly:
 
Hätte denn, ein sagen wir mal 1500 -2000€ teurer 3080ti mit 7800 (Die Size ca. 800mm2)
der 25% schneller wäre als ein halb so teurer big Navi irgend eine Relevanz am Markt?
Wegen 25%???? Das merkt man doch kaum.

Keine Relevanz am Markt, ja, in einem Hardware-Enthusiasten Forum vielleicht schon eher, aber selbst hier würden die meisten in einem solchen Scenario wohl zu AMD greifen, mich eingeschlossen.
Nur wird das nie passieren, wenn wie in deinem Beispiel AMD 20% langsamer als Nvidia mit ihrem Topmodell ist, dann werden sie NIEMALS den halben Preis dafür verlangen. Wie Navi eindrucksvoll zeigte hat AMD nichts zu verschenken auch wenn jeder die 469$ als ersten MSRP für die 5700XT schon wieder zu vergessen haben scheint. Man passt sich an den Konkurrenten an und fährt selber hohe Margen, verständlich für ein Unternehmen.
Nebenbei glaube ich weder daran, dass Nvidia auch nur 24Gb vram bei den Geforces etablieren wird, noch glaube ich an irgendwelche dubiosen Forenmeldungen aus China. Bei der verschwindend geringen Trefferquote solcher Meldungen ist es eigentlich nicht mal das Fantasieren wert.
50% mehr perf/watt bei RDNA2 sind genauso lächerlich, ohne den Nodeshrink von GCN auf RDNA kann ich mir so ein 'Wunder' nur schwer vorstellen, mMn vergleichbar mit den Gerüchten zu 50% mehr Performance bei 50% weniger Verbrauch bei Nvidias nächster Gen. Selbst offiziellen Angaben muss man ja kritisch gegenüber stehen, da nehmen sich mittlerweile alle nichts mehr (auch wenn die letzen Intel-Slides bei den CPU's schon an Verzweiflung erinnerten, so viel wie da geschönt wurde).
In dem einen Slide wo AMD von 50% mehr perf/watt spricht sind beispielsweise auch Notebooks mit einbezogen, wie an der zweiten Überschrift zu erkennen ist. In dem zweiten Slide wird Zen mit Rdna verglichen, was auch immer die miteinander zu tun haben. Jedenfalls gibt es keinerlei Werte und eine Grafik, die nichtsaussagender nicht sein könnte und reines Marketing ist. Deutlich mehr Perf/Watt und gleichzeitig auch noch höheren Clock Speed bei nahezu gleichem Fertigungsverfahren, okay. Aber ich lasse mich immer gerne Überraschen :D

Es ist quasi nichts bestätigt, weder von AMD noch von Nvidia und so geht die Argumentation von beiden Seiten ins Leere, weil für jeden andere Spezifikationen als 'gesichert' gelten. Geht ja mittlerweile so weit, dass der Forumsbeitrag der das Gerücht für diesen Artikel beisteuerte, selber von Gerüchten abhängt. Keiner weiß was Ampere ist, ob es überhaupt so heißen wird und so weiter.
Aber was es auch sein wird, Nvidia hat bestimmt wieder 'den heiligen Gral der Graphikdarstellung', welche 'einfach Funktioniert'. AMD ruft dann 'Poor Ampere/Hopper/'hier beliebigen Mathematiker einfügen', und betont zum xten Mal den Vorteil der gleichzeitig verbauten Hardware in Spielekonsolen.

Tl;Dr: Einfach auf den unabhängigen Test von PCGH warten, egal wer, was, wann auch immer rausbringt, wir wissen am Ende ja doch spätestens ein paar Tage vor Release was wirklich von dem Geschwätz stimmt.
 
50% mehr perf/watt bei RDNA2 sind genauso lächerlich, ohne den Nodeshrink von GCN auf RDNA kann ich mir so ein 'Wunder' nur schwer vorstellen, mMn vergleichbar mit den Gerüchten zu 50% mehr Performance bei 50% weniger Verbrauch bei Nvidias nächster Gen. Selbst offiziellen Angaben muss man ja kritisch gegenüber stehen, da nehmen sich mittlerweile alle nichts mehr (auch wenn die letzen Intel-Slides bei den CPU's schon an Verzweiflung erinnerten, so viel wie da geschönt wurde).
In dem einen Slide wo AMD von 50% mehr perf/watt spricht sind beispielsweise auch Notebooks mit einbezogen, wie an der zweiten Überschrift zu erkennen ist. In dem zweiten Slide wird Zen mit Rdna verglichen, was auch immer die miteinander zu tun haben. Jedenfalls gibt es keinerlei Werte und eine Grafik, die nichtsaussagender nicht sein könnte und reines Marketing ist. Deutlich mehr Perf/Watt und gleichzeitig auch noch höheren Clock Speed bei nahezu gleichem Fertigungsverfahren, okay. Aber ich lasse mich immer gerne Überraschen :D

Also das mit den 50% Perf/Watt RDNA gegenüber GCN stimmt schon und da braucht man nur eine 5700XT gegen eine Vega 64 vergleichen und eine RX 5600XT gegen eine RX 590. Die Navi-Karten bringen zwar nicht viel mehr Leistung als die Vorgänger-Gen aber sie kommen deshalb über die Effizienz also geringerer Stromverbracuh bei gleicher Leistung. Mit RDNA 2 wird AMD über Leistung kommen das bedeutet das Big Navi eine TDP um 300Watt haben wird aber dann 50% besser sein wird als eine 5700XT und somit eine 2080TI schlagen kann. Mehr wie 50% können vielleicht auch noch zustande kommen denn AMD spricht ja auch von IPC-Verbesserung was sie mit RDNA auch bewiesen haben und niemand hatte damit gerechnet das die 5700XT eine 2070 schlägt. RDNA ist die beste Weiterentwicklung seit Jahren bei AMD da man sieht das die Leistung auch auf die Straße gebracht und vor allem AMD ihre Shader verbessert haben und Nvidia fast gleichauf sind.

Ich denke schon das RDNA 2 50% besser als RDNA sein wird und auch bei Ampere werden diese 50% kommen denn Nvidia fertigt dann in 7nm und diese 50% müssen auch wieder drin sein denn diese läppischen 35% von einer 1080TI zur 2080TI ist halt auch dem Ray-Tracing geschuldet aber Nvidia hat ja jetzt wieder den Vorteil eine Gen länger damit entwickelt zu haben gegenüber AMD.

Nur über die Preise werde ich nicht spekulieren da ich denke das diese Preisschraube noch höher gedreht wird von Nvidia und AMD.
 
...
Das ist im Bereich des Erwartbaren. Laut Gerüchten ala VideocardZ FUD bewegt sich das die-space bei 700 bis 800mm².
...

700-800mm² Die halte ich für Consumer Karten als zu groß, da 7nm+EUV ein relativ neuer Fertigungsprozess ist und bei so großen Dies der Yield in den Keller geht. So ein riesen großer Chip wäre extrem teuer und wenn man sich mal an Volta zurückerinnert, dann brauchte Nvidia dafür eine extra angepasste Fertigung (12nm) um überhaupt so einen Monster-Die herzustellen. Für den HPC Bereich wo eine einzelne Karte auch gerne so viel kosten darf wie ein Kleinwagen, wenn die Leistung passt, ist das vorstellbar aber für Consumer Karten nicht.

Navi nutzt aktuell Dies mit ca. 250mm² und soll um die 150$ in der Produktion kosten. Wenn der Die jetzt ca. 3x so groß werden soll kostet der sicherlich 6-8x so viel weil der Yield runter geht. Der Die würde dann bereits um die 1000$ das Stück kosten, ca. 100-150$ für PCB, Kühler usw. und dann die Gewinnmarge drauf. Macht dann rund 2000$ für so ein Monster als Consumer Karte, im HPC Markt sind die Margen noch deutlich höher. Nvidia wurde von den Konsumenten aber auch Investoren bereits für den Preis der 2080ti von rund 1000$ abgestraft mit zu wenig verkauften Einheiten wodurch die erzielten Gewinne nicht den projezierten entsprachen. Für den Consumer Markt kann sich Nvidia keine noch teurere Karten leisten oder muss die Gewinnmargen für die High-End Produkte noch stärker nach oben drehen um mit einer noch geringeren Stückzahl die gewünschten Gewinne einzufahren.

Für den Consumer Bereich gehe ich noch immer von ca. 500mm² Dies aus was in den alten Fertigungsprozessen mehr oder weniger die Maximalgröße war. Nimmt man die 36 TFlops bei 2,2Ghz und 700mm² und rechnet das auf 500mm² runter (mit linearer Skalierung) dann kommt man auf rund 26 TFlops. Eine 2080ti kommt übertaktet auf 2,2GHz (was die wenigsten Karten überhaupt schaffen) auf rund 19 TFlops. Mit 500mm² Die wäre die neue Karte also rund 37% schneller bei gleichem Takt. Die meisten 2080ti schaffen aber nur 1,9-2,0 GHz, also 17 TFlops wodurch die neue Karte dann 53% schneller wäre und wenn man den offziellen Boost der 2080ti von 1,635GHz hernimmt dann kommt man auf 83% schneller. Mit den Werten liegt man dann bei den Leaks aus dem Januar wo von 50-70% mehr Leistung gesprochen wurde.
 
Wird Zeit dass langsam mal Fleisch an die Knochen kommt, Ende März sollten wir genauer wissen wo die Reise hingeht.

Meine 2080Ti braucht auf jeden Fall dringend einen Nachfolger, ich hoffe also da kommt Nachschub und zwar bald.

Für AMD und den Markt würde ich mich sehr freuen, wenn auch mal wieder im High End mitgespielt werden kann. Allein die letzten 3 Generationen GPUs lassen mich daran zweifeln.

Wie lange hatte eigentlich einen TitanV die Gaming Krone auf, bis ein GeForce Nachfolger schneller wurde?
 
Keine Relevanz am Markt, ja, in einem Hardware-Enthusiasten Forum vielleicht schon eher, aber selbst hier würden die meisten in einem solchen Scenario wohl zu AMD greifen, mich eingeschlossen.
Nur wird das nie passieren, wenn wie in deinem Beispiel AMD 20% langsamer als Nvidia mit ihrem Topmodell ist, dann werden sie NIEMALS den halben Preis dafür verlangen. Wie Navi eindrucksvoll zeigte hat AMD nichts zu verschenken auch wenn jeder die 469$ als ersten MSRP für die 5700XT schon wieder zu vergessen haben scheint. Man passt sich an den Konkurrenten an und fährt selber hohe Margen, verständlich für ein Unternehmen.
Nebenbei glaube ich weder daran, dass Nvidia auch nur 24Gb vram bei den Geforces etablieren wird, noch glaube ich an irgendwelche dubiosen Forenmeldungen aus China. Bei der verschwindend geringen Trefferquote solcher Meldungen ist es eigentlich nicht mal das Fantasieren wert.
50% mehr perf/watt bei RDNA2 sind genauso lächerlich, ohne den Nodeshrink von GCN auf RDNA kann ich mir so ein 'Wunder' nur schwer vorstellen, mMn vergleichbar mit den Gerüchten zu 50% mehr Performance bei 50% weniger Verbrauch bei Nvidias nächster Gen. Selbst offiziellen Angaben muss man ja kritisch gegenüber stehen, da nehmen sich mittlerweile alle nichts mehr (auch wenn die letzen Intel-Slides bei den CPU's schon an Verzweiflung erinnerten, so viel wie da geschönt wurde).
In dem einen Slide wo AMD von 50% mehr perf/watt spricht sind beispielsweise auch Notebooks mit einbezogen, wie an der zweiten Überschrift zu erkennen ist. In dem zweiten Slide wird Zen mit Rdna verglichen, was auch immer die miteinander zu tun haben. Jedenfalls gibt es keinerlei Werte und eine Grafik, die nichtsaussagender nicht sein könnte und reines Marketing ist. Deutlich mehr Perf/Watt und gleichzeitig auch noch höheren Clock Speed bei nahezu gleichem Fertigungsverfahren, okay. Aber ich lasse mich immer gerne Überraschen :D

Es ist quasi nichts bestätigt, weder von AMD noch von Nvidia und so geht die Argumentation von beiden Seiten ins Leere, weil für jeden andere Spezifikationen als 'gesichert' gelten. Geht ja mittlerweile so weit, dass der Forumsbeitrag der das Gerücht für diesen Artikel beisteuerte, selber von Gerüchten abhängt. Keiner weiß was Ampere ist, ob es überhaupt so heißen wird und so weiter.
Aber was es auch sein wird, Nvidia hat bestimmt wieder 'den heiligen Gral der Graphikdarstellung', welche 'einfach Funktioniert'. AMD ruft dann 'Poor Ampere/Hopper/'hier beliebigen Mathematiker einfügen', und betont zum xten Mal den Vorteil der gleichzeitig verbauten Hardware in Spielekonsolen.

Tl;Dr: Einfach auf den unabhängigen Test von PCGH warten, egal wer, was, wann auch immer rausbringt, wir wissen am Ende ja doch spätestens ein paar Tage vor Release was wirklich von dem Geschwätz stimmt.

Mit nichts zu verschenken gebe ich dir recht.
Aber ich denke die Argumentation die lediglich auf die Preisgestaltung des Konkurrenten abzielt ist ein wenig zu kurz gegriffen, die Sache gestaltet sich doch deutlich komplexer.

Das hängt doch auch entscheidend von der eigenen Marktstrategie und den eigenen intern gesetzten Zielen ab und die werden wohl ziemlich ambitioniert sein könnte ich mir vorstellen.

Des Weiteren ist AMD im Grafik-Sektor momentan auch gar nicht in der Lage (bzw. es ist nicht die richtige Zeit dafür) einen Preiskrieg zu entfachen, ohne sich selbst ins Bein zu schießen und zusätzlich gestaltet sich die Lage bei AMD auch deutlich komplizierter als dies bei NVIDIA der Fall ist, da für AMD momentan der Desktop-Markt vielleicht 3. Priorität hat und nicht wie bei NVIDIA 2. bzw. (Gewinn wird zwar mit HPC gemacht aber das tägliche Brot und Butter Geschäft wird im Desktop erzielt ohne diesen sie gleich die Bude dicht machen könnten)
Für AMD hingegen hat 1. Priorität der HPC Markt dann kommen die Konsolen: Sony, Microsoft und Apple etc. und ganz hinten auf der letzten Sitzreihe im Bus kommen wir.
Dann hat AMD auch nur die RX5500 - RX5700 mit RDNA1 im Sortiment und kann daher im mittleren-oberen Preissegment nicht einfach z.B. eine RX5800 zur RX5750 degradieren um bei Bedarf auf den Konkurrenten reagieren zu können so wie es NVIDIA mit der 2070 super gemacht hat.
Bei NVIDIA hingegen sieht das anders aus, die würden zur Not die 2080 super zur 2070 degradieren nur um in diesem wichtigen Preisbereich das schnellere Produkt zu haben.
Aber wie sich die Sache entwickeln wird, wenn AMD das komplette Portfolio nächstes Jahr von Entry-Level bis Enthusiast auf RDNA2 umgestellt hat, wird sich noch zeigen müssen.

Ich könnte mir gut vorstellen dass, die Interne Roadmap einen Marktanteil von 50% bei Diskreten Grafikkarten bis 2024 -2025????????? vorsieht, bei guten, aber doch deutlich schlechteren Margen als es bei NVIDIA der Fall ist und ab dann im Anschluss auch auf diesem Gebiet aufgeholt wird.
Um das zu erreichen werden sie wohl in einem gewissen Masse die Konfrontation mit NVIDIA suchen müssen und über Preis-Leistung (bzw. Topleistung zum besseren Preis) wie sie es bereits bei Zen getan haben
NVIDIA die Marktanteile abzujagen und dazu haben sie voraussichtlich einige sehr starke Trümpfe in der Hand.
Da wäre TSMC 5nm, es ist stark anzunehmen das AMD deutlich früher als NVIDIA erste Produkte in 5 nm (RDNA3?) im Markt platzieren wird und dies bei einer vergleichbar effizienten Architektur und Feature set verheerende Auswirkungen auf NVIDIA hätte.
Was wäre z.B. gewesen, wenn AMD die nötigen Ressourcen bereits 2 Jahre früher gehabt hätte und am 7. Feb. 2019 anstatt einer VII mit 331mm2 eine RDNA2 mit 331mm2 veröffentlicht hätte?
Ich würde sagen, eine Karte mit ca. 2080ti Leistung und um die 200W, bei deutlich niedrigeren Herstellungskosten. Die sich auch bei einem Verkaufspreis von um die 600 -800€ sich noch mehr als gut rentiert hätte.
Da in der Vergangenheit so einiges nicht so lief wie es sollte, ob finanziell, oder startegisch bedingt befinden wir uns nun an einem ganz anderen Punkt.
Ich denke sobald sich AMD in der Position sieht dieses Spiel auch bis zu Ende durchzuspielen, werden sie die Preise auch aggressiver gestallten als dies jetzt der Fall ist, erste Anzeichen davon werden wir wohl bereits diese bzw. nächstes Jahr bei RDNA2 sehen.
Es ist nur zu Hoffen das nicht sämtliche Ressourcen bei TSMC für die Konsolen und Zen draufgehen werden sonst sieht es für eine Preiskampf doch eher schlecht aus.

Aber mit 30% Marktanteil und schlechterer Marge wird sich die Lisa Su in Zukunft sicherlich auch nicht zufrieden geben, denn wäre es so, wäre sie wohl auch fehl am Platz, das Ziel wir eher 50+ lauten und wird wohl vorausgesetzt das sie ihr eigenes Spiel durchziehen auch mit RDNA3 erreicht werden.
Aber wem sag ich das, schau mal auf den Aktienkurs da bin ich wohl nicht der einzige der darauf Wettet das sich so einiges Veränder wird in Zukunft.

Bezüglich der 50% perf/watt was soll daran lächerlich sein, auf der Präsentationfolie wird ganz klar auf den Unterschied zwischen RDNA1 und 2 verwiesen.
Bezüglich der zweiten Folie kann ich dir folgenden Artikel ans Herz legen:
AMD’s RDNA 2.0 GPUs will use the power of Zen to compete with Nvidia AMD’s RDNA 2.0 GPUs will use the power of Zen to compete with Nvidia | PCGamesN
In diesem Artikel wird unter anderem auf die Zusammenhänge zwischen Zen und RDNA und den Einfluss der Zen design methodology eingegangen.

P_W RDNA2.png RDNA P_w Improv.png
 
3080 TI wird mit rund 2,1 GHz boosten, um die 7800+ Shader und 16 GB VRAM haben vermute ich mal.
Preislich um die 1000-1500€

Wenn die 3080 TI wirklich 16 GB VRAM haben sollte, traue ich mich wetten, dass Du jene welche NICHT unter 1497 € bekommst !!
EoL vielleicht … :-)

MfG, Föhn.
 
Zurück