AMD mit Umsatzrekord: "Produktion für Radeon RX 6000 wird hochgefahren"

Da ist auch schön zu sehen dass die Steigerung bei NV ähnlich gut ist (in WQHD):
2060 - 3060 = +30%
2070 Super - 3070 = +34%
2080 Super - 3080 = +48%
Von 2080 Super auf 3070 sind es nur 19%, schlechter als 30% bei AMD.
Vergleiche doch die Chips in dem selben Segment.

5700XT -> 6700XT
2080 Super --> 3070

Die Nvidia Generation ist verhältnismäßig schwächlich.
Sie sind nur wegen DLSS und Raytraycing besser gestellt, aber sonst...
Nvidia hat AMD ganz schön aufholen lassen. Gut sie haben den schlechteren Prozess.
Aber können dafür viel mehr liefern.
 
Von 2080 Super auf 3070 sind es nur 19%, schlechter als 30% bei AMD.
Vergleiche doch die Chips in dem selben Segment.

5700XT -> 6700XT
2080 Super --> 3070

Die Nvidia Generation ist verhältnismäßig schwächlich.
Sie sind nur wegen DLSS und Raytraycing besser gestellt, aber sonst...
Nvidia hat AMD ganz schön aufholen lassen. Gut sie haben den schlechteren Prozess.
Aber können dafür viel mehr liefern.
Was soll denn dieser Unfug mit dem Segment Vergleich? Eine 2080 Super war in der Turing Generation doch eher High-End (darüber gibt es nur die 2080ti und die Titan RTX). Die 3070 ist gehobene Mittelklasse bei Ampere. Und nur weil AMD bei RDNA1 keine Konkurrenz zur 2080+ hatte kann man doch jetzt nicht den Sprung 2080S vs 3070 gleichsetzen mit 5700XT vs 6700XT. Da muss man schon das Segment innerhalb eines Generationswechsels desselben Herstellers vergleichen.

Chipflächen Vergleich? Das ist genauso Unfug wie mein 7nm TSMC vs 8nm Samsung Node Vergleich bezüglich Stromverbrauch, die Chipfläche sagt wenig darüber aus wie performant ein Chip. Das ist alles Schall und Rauch, hat uns der8auer doch schön aufgezeigt: Link

Man kann auch nicht die Zahl der Shader, CU's, RT-Cores oder sonst was vergleichen, die Architekturen und Herstellungs-Nodes unterscheiden sich zu sehr. Am Ende zählt die Render-Performance, nur die ist Vergleichbar. Und da liegen beide Hersteller aktuell ziemlich gleich auf bei Rasterization.
 
Was soll denn dieser Unfug mit dem Segment Vergleich?
Du hast damit angefangen und 5700XT mit 6900XT verglichen.
Nur damit du sagen kannst die Stromaufnahme ist höher. Scheust aber den Vergleich zwischen 2080 Super und 3070, wieso?
Das war jeweilig der zweitgrößte Chip in den Generationen und da hat AMD von 5700xt auf 6700xt nun einmal 11% besser geliefert und das ohne den Prozess umzustellen.

Eine 2080 Super war in der Turing Generation doch eher High-End (darüber gibt es nur die 2080ti und die Titan RTX).
Und heute ist es die 3080 und 3090.

Und nur weil AMD bei RDNA1 keine Konkurrenz zur 2080+ hatte kann man doch jetzt nicht den Sprung 2080S vs 3070 gleichsetzen mit 5700XT vs 6700XT.
Doch genau das kann man.
Kannst auch 2080Ti und 3080 oder 3090 vergleichen. So 40% mehr Leistung und gleichzeitig 30% mehr Strohmaufnahme.


Und da liegen beide Hersteller aktuell ziemlich gleich auf bei Rasterization.
Schon, aber AMD hat sich eben viel besser gesteigert.
Selber Node, 30% mehr Leistung, selbe Stromaufnahme bei Nvidia sind es nur 19%.
Gib ner 2080Ti mal 320 Watt Spielraum, die liegt vielleicht 15 % hinter ner 3080.
Nvidia hat ihren Vorsprung komplett verspielt und hat relativ gesehen ne schwache Gen geliefert.
 
Dann musst Du aber auch beachten dass AMD im selben Node den Leistungssprung auch mit mehr Watt erkauft hat:

5700XT - 225 W
6800XT - 300 W
6800 - 250 W

Was den Umsatz / Gewinn pro Chip angeht: wenn AMD mehr pro Chip verdient, da sie jetzt im High-End Segment Produkte haben, dann ist das anders zu betrachten als bei Nvidia weil sie schon immer im High-End Segment vertreten waren? Das heißt in beiden Fällen dass höherpreisige Produkte häufiger verkauft wurden als früher. Heißt bei Nvidia hat man mehr 3080/90 verkauft als 3070/60 im Vergleich zu den entsprechenden Turing-Modellen. Das kann man sehr wohl vergleichen. Nur beim einen Unternehmen ist es böse, beim anderen gut? :huh:
Bischen unfair das Ganze.

1.) Die 6900XT hat wie viel Prozent Mehrleistung als die 5700XT?
Ca. 100% bei nur ca. 30% Mehrverbrauch.
Die 3090 hat ca. 40% Mehrleistung wie Turing, bei ebenfalls ca. 30% Mehrverbrauch.

Damit hat AMD einen deutlicheren Effizienz Gewinn geschafft, ohne Node. Schlecht nur, dass sie erst mit der jetzigen Generation auf NVidia aufgeschlossen haben, die aktuelle Situation halte ich für einen Platz.

2.) Bitte nochmals meinen Ursprungspost dazu lesen, es war mein Fazit, dass der der früher eine 3070 gekauft hatte nun eine 3080/3090 gekauft hat und somit ein Großteil der pro Chip Umsatzsteigerung einfach dadurch kommt, dass viele Leute eine oder zwei Klassen besser kaufen als üblich. Dafür spricht auch, dass man die UVPs ja Recht niedrig gewählt hat.
Was heute am Markt bezahlt wird, landet meines Wissens nach nicht bei den Herstellern, sondern bei den Händlern.

Und nein, auch hier siehe Ursprungspost, ich halte kein Unternehmen für schlecht. Selbst wenn Nvidia jetzt 5000€ pro Chip nehmen würde, waren sie kein böses Unternehmen. Sie wären zwar recht zeitig pleite, aber jeder muss für sich selbst entscheiden was er kauft und was er braucht.
Wenn man sich die uvp Preise anschaut auf der amd Seite dann geht es ja noch
AMD kann für die Händler nichts
Genauso Nvidia oder Intel
Man kann fast sagen die Gewinne der Händler sind höher als die von AMD oder Boardpartner
Wenn eine Karte 1000 kostet dann muss man ja die Kosten für alles abziehen
Wenn der Händler für die Karte 1800 verlangt dann macht er schon mehr als 800 Euro Gewinn
Ist kacke bleibt kacke ist aber Realität
Es sind aber meist ein paar mehr Händler an so einem Verkauf beteiligt. Fängt ja schon damit an, dass die Chips erstmal an die Grakahersteller geliefert werden und da schon der erste Aufschlag gelegt wird. Dann kommen sicherlich noch so einige Zwischenstationen bis das Ding mal bei MediaMarkt im Regal liegt
 
In kleinem Umfang ist das tatsächlich so. Man hält im Onlinehandel immer Kleinmengen zurück, weil es sich nicht lohnt diese sofort Online zu stellen, weil man sofort Überverkäufe produziert.
Plus man braucht Reserven für B2B Kunden, Retouren etc.

Dein örtlicher Händler braucht auch wohl noch ein paar Karten um diese in Komplett Rechnern selbst zu verbauen.
Aber kein Händler wird jetzt hunderte Karten bunkern. Da ist die Hauptursache immer noch die schlechte Verfügbarkeitslage.
Da wirst du Recht haben... Wir sprechen hier aber wirklich von einem kleinen Händler, der sage und schreibe 17x 3080 auf LAGER hatte. Ich stelle mir nur grad vor, was dann die großen (Mindfactory und Co. auf LAGER belassen, da die Komplettrechner ja auch entsprechend teurer über die virtuelle Ladentheke geht. Es ist für mich nur schwer vorstellbar, dass in ganz Deutschland seit Wochen keine einzige 3080 einzeln gekauft werden kann. Klar ist die Ware knapp. Keine Frage! Aber irgendwo machen die das mit Sicherheit auch absichtlich, dass die Ware entsprechend höher verkauft werden kann...
 
Sag das mal den “in Betrieb“ befindlichen Pixelschubsen;)

Wenn ich jetzt/morgen/in nem Monat/dieses Jahr ne neue bräuchte...:-$

Gruß
Immerhin hast du eine CPU mit iGPU. Klassiker/Oldies und Indies kannst du damit immerhin spielen auch wenn die GPU tot ist.
Bei meiner Frau ist auch gerade die 1060 eingegangen (oder es ist ein Bug der woanders herkommt), jedenfalls bin ich gerade sehr froh, dass ihr PC noch auf Intel basiert, auch wenn ich selbst Richtung Zen 4 und 5 schaue hat mich die Sache ins Grübeln gebracht. Dann doch lieber eine APU von Intel oder AMD statt einer reinen CPU.
 
Immerhin hast du eine CPU mit iGPU. Klassiker/Oldies und Indies kannst du damit immerhin spielen auch wenn die GPU tot ist.
Bei meiner Frau ist auch gerade die 1060 eingegangen (oder es ist ein Bug der woanders herkommt), jedenfalls bin ich gerade sehr froh, dass ihr PC noch auf Intel basiert, auch wenn ich selbst Richtung Zen 4 und 5 schaue hat mich die Sache ins Grübeln gebracht. Dann doch lieber eine APU von Intel oder AMD statt einer reinen CPU.
Naja, aber LowEnd bekommste noch zu bezahlbaren Preisen, dabei ist sie auch noch um ein vielfaches schneller als die iGPU.

Gerade für uns Gamer ist die eingebaute GPU ja nicht wirklcih nutzbar, selbst im Büro habe ich kein einzigen PC mit iGPU am laufen, drei Monitore sind halt mal mind. einer zuviel. Selbst zwei Monitore bedingen oft schon ein teureres Board, was den Aufpreis für eine dedizierte GPU fast wett macht und dazu wird der RAM nicht belastet und das bringt sicherlich auch nochmal etwas Performance. Daher laufen bei uns alle PCs mit dedizierter Grafik, auch wenn es nur Modelle ala 710Gt oder so sind.
 
Ganz einfach, indem sie von den bestehenden Kontigenten für die weiteren Quartale mehr gebucht haben. Geht also auch ohne, dass TSMC die Fabriken erweitert ;-)



Falsch siehe oben. Kam dazu auch letztens erst eine neue News, dass sie jedes Quartal mehr Wafer geordert haben. Sprich sie können hoffenlich auch mehr liefern.
Es geht auch beides gleichzeitig.
Wenn die yield Rate der CPU dies weit genug gestiegen ist, können sie die dann nicht mehr benötigten Wafer den GPUs zuordnen.
Außerdem sieht es bei den CPUs doch gerade so aus, dass die Preise unter die UVP sinken - also gibt es mehr CPUs als Nachfrage.
Dann können sie auch steuernd eingreifen und die Waferverteilung anpassen.
Und das alles unabhängig von Lieferverträgen für die Konsolen APUs.
 
Naja, aber LowEnd bekommste noch zu bezahlbaren Preisen, dabei ist sie auch noch um ein vielfaches schneller als die iGPU.
Das letzte Mal als ich geschaut habe:
1050 ca 300€
1660 weit drüber und kaum lieferbar
Darunter gäbe es die 730 oder so. Aber dann doch lieber eine iGPU

Gerade für uns Gamer ist die eingebaute GPU ja nicht wirklcih nutzbar, selbst im Büro habe ich kein einzigen PC mit iGPU am laufen, drei Monitore sind halt mal mind. einer zuviel. Selbst zwei Monitore bedingen oft schon ein teureres Board, was den Aufpreis für eine dedizierte GPU fast wett macht und dazu wird der RAM nicht belastet und das bringt sicherlich auch nochmal etwas Performance. Daher laufen bei uns alle PCs mit dedizierter Grafik, auch wenn es nur Modelle ala 710Gt oder so sind.
Ist vielleicht auch Geschmackssache.
Ich selbst habe im HTPC eine HD 530 und die reicht für fast alle alten Spiele. Ich habe auch testweise Alien Isolation drauf gespielt. Ging auch.
 
Das letzte Mal als ich geschaut habe:
1050 ca 300€
1660 weit drüber und kaum lieferbar
Darunter gäbe es die 730 oder so. Aber dann doch lieber eine iGPU
Die 1050 ist aber alles andere als Low End und ich will nicht wissen, wieviel schneller diese als die eingebaute ist. Wobei doch, ich will es wissen, aber Google spuckt nix aus, Frechheit.
 
Die 1050 ist aber alles andere als Low End und ich will nicht wissen, wieviel schneller diese als die eingebaute ist. Wobei doch, ich will es wissen, aber Google spuckt nix aus, Frechheit.
Hier zb:

Ryzen 5 3400G & RX Vega 11 vs Pentium G5400 & GTX 1050 (CS:GO, Fortnite, LoL, GTA 5...)​


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ah, sehr interessant. Aber wenn ich das richtig verstehe ist die GTX1050 schon konsequent vorne und das obwohl die CPU deutlich perfomanter sein sollte. Teilweise ist die 1050 ja sogar doppelt so schnell wie Vega 11. Interesanter wäre da auch, 3400G mit und ohne dedizierte CPU um die CPU als Bremse auszuschließen.
 
Die 1050 ist aber alles andere als Low End und ich will nicht wissen, wieviel schneller diese als die eingebaute ist. Wobei doch, ich will es wissen, aber Google spuckt nix aus, Frechheit.
Was ist denn für dich Low End?
Eine 1050 ist schon weit unten gewesen darunter gibt es bei Nvidia dann noch die 1030, kostet aber auch direkt 100€ (RX 550 150€) und die 710 für rund 50€ und spätestens bei letzterer wirst du mit der iGPU nichts verlieren.
Kackt einem die GPU ab ist die iGPU für mich derzeit klar die beste Lösung wenn man sie hat. Ist zwar alles andere als schön aber man kann zumindest noch ältere Games locker zocken und auf bessere Zeiten warten.

Bleibt zu hoffen dass das "hochfahren" auch nennenswert mehr Produktion bedeutet. Derzeit sind es nur homöpathische Mengen gewesen.
 
Zurück