Radeon RX 6000: AMD bekommt zunehmend mehr 7-nm-Wafer, wann enden die Lieferprobleme?

Ende 2021. Es hat den Eindruck gemacht, als wollte AMD wieder zum jährlichen Rhythmus zurückkehren, was auch insgesamt besser wäre und Nvidia unter Druck setzen dürfte. Kann natürlich auch sein, dass das so eine Pleite, wie Vega wird, dann wird es erst Ende 2022, zusammen mit den neuen Nvidiakarten. Ich hoffe jedoch auf das beste.



Wir werden uns wohl auf Ewiges impfen einstellen müssen. Einerseits weil die Immunität nicht ewig wirkt (so wie bei Tetanus) oder weil es schnell mutiert, so wie bei der Grippe. Solange aber der Lockdown und dann irgendwann auch die Maskenpflicht vorbei sind, kann ich gut damit leben.
ich erinnere mich, dass das in dieser sehr ungefähren Roadmap tatsächlich so eingezeichnet war, ja.
Aber 5nm wird dann noch nicht ready sein für solche Mengen. Höchstens CDNA Produkte sehe ich da möglich. Aber klar wärs gut, jährlich was draufzusetzen. 50% Effizienzsteigerung würde ich natürlich gerne sehen OHNE neuen Prozess, dann wär AMD wohl wirklich wieder vor Nvidia
 
Ende 2021. Es hat den Eindruck gemacht, als wollte AMD wieder zum jährlichen Rhythmus zurückkehren, was auch insgesamt besser wäre und Nvidia unter Druck setzen dürfte. Kann natürlich auch sein, dass das so eine Pleite, wie Vega wird, dann wird es erst Ende 2022, zusammen mit den neuen Nvidiakarten. Ich hoffe jedoch auf das beste.

Im Gegensatz zum teuren HBM scheint der Cache aber das deutlich bessere Rezept von AMD zu sein.
Inbesondere wie der Test von Computerbase zeigt, ist mit der Architektur auch eine gute Skalierung bei großen GPUs gegeben.

50% Effizienzsteigerung würde ich natürlich gerne sehen OHNE neuen Prozess, dann wär AMD wohl wirklich wieder vor Nvidia

Gab es bei RDNA2 doch schon. ;)
 
"Trotzdem soll die Liefermenge dann endlich für einen Preiskrieg ausreichend sein, wenn AMD diesen denn eingehen will."
Mir würden schon Preise um die UVP reichen.
Zumindest der Ryzen 5600X und sein 8-Kern Verwandter sind aktuell zu diesen Konditionen zu haben.
 
mining boom hin oder her die 3000 und 6000er sind für micht nicht so interessant da kann ich mein geld sparen und in eine cpu incl neues simu cockpit stecken.

meine meinung zum hype ist nur der das es ab 2030 sehr sehr hart wird bitcions zu minen da diese per code auf 21mio begrenz sind und wir diese ab 2140 voll ausgereizt haben.
 
meine meinung zum hype ist nur der das es ab 2030 sehr sehr hart wird bitcions zu minen da diese per code auf 21mio begrenz sind und wir diese ab 2140 voll ausgereizt haben.
Ja und? Es spielt keine Rolle wie schwer es ist neue coins zu minen sondern nur wie der Wechselkurs ist (und letzterer ist ausschließlich davon abhängig wie groß der Glauben in der bevölkerung daran ist, dass eine Zahl einen bestimmten Wert hätte).

Die Knappheit am GPU-Markt wird genau dann enden, wenn es nicht mehr rentabel ist mit den Dingern zu minen. Das kann morgen passieren oder 2035. :ka:
 
Ich habe da keine Hoffnung in diesem Jahr ein GPU mit UVP des Herstellers zu bekommen.Solange dieser Mining Wahn anhält und nicht genügend für diesen zweck Stückzahlen bereit gestellt werden.Sehe ich das kein ende des Preiswahns.Vielleicht werde ich diese Generation GPU sogar überspringen und zum nähsten Jahresende auf die next Generation GPU setzen.Und sollte mein GPU das zeitliche segnen,krame ich meine alte GPU zu not raus und nutze sie weiter.Normalerweise tue ich jede 3 Jahres rhythmus meine GPU erneuern..aber dieses mal muß sie bis zum nähstes Jahresende über 5 Jahre halten,hoffentlich.
 
Im Gegensatz zum teuren HBM scheint der Cache aber das deutlich bessere Rezept von AMD zu sein.
Inbesondere wie der Test von Computerbase zeigt, ist mit der Architektur auch eine gute Skalierung bei großen GPUs gegeben.



Gab es bei RDNA2 doch schon. ;)
Weiß ich und wurde auch für RDNA 3 angekündigt- darauf spiele ich an
 
Das ist eine sehr pessimistische Aussage, auch ohne Loddar. :(

1616250726585.jpeg

... oder so
Wird schon iwann wieder besser.
 
Solange dieser Mining Wahn anhält und nicht genügend für diesen zweck Stückzahlen bereit gestellt werden.
Das Problem ist hier gibt es kein "genug".
Denn mit 100 Karten machst du 10x mehr Gewinn als mit 10. Und mit 1000 machste 10x mehr als mit 100 - und so weiter. Mehr Karten = mehr Gewinn. Endlos.
Der Miningmarkt ist nicht in dieser Form zu sättigen wie es bei Gamern geht.
 
Wie gesagt wurde: das wird nichts, bis der Miningboom endet. Zumal AMD ja keine Miningbremse einbauen will.
nVidia hat ja praktisch auch keine Miningbremse, warum sollte AMD eine brauchen, wenn die schlechter für's minen geeignet ist!?

Gurtest du Dich denn beim Fahrrad fahren an, nur weil sich Motorradfahrer nicht angurten? :ugly:
 
Das Problem ist hier gibt es kein "genug".
Denn mit 100 Karten machst du 10x mehr Gewinn als mit 10. Und mit 1000 machste 10x mehr als mit 100 - und so weiter. Mehr Karten = mehr Gewinn. Endlos.
Der Miningmarkt ist nicht in dieser Form zu sättigen wie es bei Gamern geht.
Genau da liegt das dilemma,man sollte die zukünftige Gamer GPU,s eine Hardwareseitig speere einbauen für das Hashen von Kryptowährung.Oder soweit reduzieren die Hashrate,das das bei gamer GPU,s nicht mehr lohnt und diese Leute nur noch darauf ausgelegte Mining GPU,s kaufen in Zukunft.
 
Zuletzt bearbeitet von einem Moderator:
Ah bei der Überschrift dachte ich schon, es lohnt bald nicht mehr ins Scalper Geschäft einzusteigen. Puh, gut erst Ende des Jahres ganze 33% mehr Konsolen. Jetzt kann ich nächste Woche wieder 3 Sekunden F5 Spamming und mein Glück zum Eigenheim versuchen.
 
Ja und? Es spielt keine Rolle wie schwer es ist neue coins zu minen sondern nur wie der Wechselkurs ist (und letzterer ist ausschließlich davon abhängig wie groß der Glauben in der bevölkerung daran ist, dass eine Zahl einen bestimmten Wert hätte).

Die Knappheit am GPU-Markt wird genau dann enden, wenn es nicht mehr rentabel ist mit den Dingern zu minen. Das kann morgen passieren oder 2035. :ka:
das prinziep ist dezentral und so vor inflation geschützt was staatliche banken nicht bieten. wenn die erforderete rechenleistung ab 2030 so hart ansteigt gibt es GPU ja aber die restlichen coins rann man nur mit nem super rechner bekommen. wenn der bitcoin auf 21 mio bleibt und danach nur als wertanlage gilt ist der preis immer hoch und so wird es bleiben.
 
Habe die Tage doch tatsächlich einen in Flagranti erwischt, wie er gerade mit AutoIt ein Tastatur Script zum Scalpen in Stellung bringen wollte. :gruebel: :banane: Als "Rache für die ganzen Nerds da draussen, die leer ausgegangen sind..habe "ich uns alle "standardgemäß " gerächt" ! Dankt mir später !
:devil:

gfgfgfg.JPG
 
ich erinnere mich, dass das in dieser sehr ungefähren Roadmap tatsächlich so eingezeichnet war, ja.
Aber 5nm wird dann noch nicht ready sein für solche Mengen. Höchstens CDNA Produkte sehe ich da möglich. Aber klar wärs gut, jährlich was draufzusetzen. 50% Effizienzsteigerung würde ich natürlich gerne sehen OHNE neuen Prozess, dann wär AMD wohl wirklich wieder vor Nvidia

Das ist wohl etwas optimistisch, zumindest in den heutigen Zeiten. Aber würden schon 20% mehr Effizienz dick ausreichen, um Nvidia vom Thorn zu stoßen. Aber auch sonst gibt es einiges, um das sich AMD kümmern sollte. Da wäre zum einen Die Raytracingleistung, die sollte dringend erhöht werden, da das in Zukunft wohl deutlich wichtiger wird. Dann sollten sie eine gute Alternative zu DLSS bieten, daraufhin könnte man die Karten auch optimieren. Es stellt sich auch noch die Frage, ob AMD ein Gegenstück zu den Tensorkernen bringen möchte. (ein Viertel Petaflop hat schon etwas, schade, dass es kein Quad SLI mehr gibt).

Nvidia ist AMD noch zwei bis drei Schritte voraus, mit dem Jahreszyklus könnte AMD schnell aufholen.

meine meinung zum hype ist nur der das es ab 2030 sehr sehr hart wird bitcions zu minen da diese per code auf 21mio begrenz sind und wir diese ab 2140 voll ausgereizt haben.

Wenn das Mining unattraktiv wird, dann treibt man eben schnell die nächste Kryptosau durchs Dorf. Daran wird man sich gewöhnen müssen.

nVidia hat ja praktisch auch keine Miningbremse, warum sollte AMD eine brauchen, wenn die schlechter für's minen geeignet ist!?

Weil dann die AMD Karten gezielt in die Gaming PCs wandern, während die Nvidiakarten in die Miningfarmen wandern. Deshalb wäre es, für AMD, extrem gut. Sollte Nvidia seine Miningbremse zum laufen bekommen, dürfte AMD große Probleme bekommen.

das prinziep ist dezentral und so vor inflation geschützt was staatliche banken nicht bieten.

Es sind eigentlich toxische Wertpapiere und die sind keine wirklich gute Geldanlege, wenn man auf Sicherheit steht.

wenn der bitcoin auf 21 mio bleibt und danach nur als wertanlage gilt ist der preis immer hoch und so wird es bleiben.

Wenn der Bitcoin obsolet wird, dann sucht man sich eben etwas anderes. Wie gesagt: die nächste Kryptosau wird schon längst durchs Dorf getrieben.

Wie es mit dem Wert steht kann keiner sagen. Toxische Wertpapiere neigen dazu urplötzlich und ohne von außen erkennbaren Grund zu implodieren. Von daher könnte es sehr schnell zu Ende sein.
 
sodass man hoffentlich bis Ende 2021 oder Anfang 2022 Grafikkarten zu UVP-Preisen kaufen kann und sie auch tatsächlich geliefert bekommt.

Da wird meine 3080 TUF OC schon 1 Jahr alt sein(im Dezember). ;)
Damit sie auch noch etwas länger hält, wird sie natürlich sehr geschont, mit kühlen Temps und undervolting.

Positiv wäre hingegen eine deutlich gesteigerte Produktionskapazität durch Nvidia.

Wäre mal vor dem launch schon nicht die schlechteste Idee gewesen. ;)
 
Zuletzt bearbeitet:
Als ob. Wenn es nur 30% Unterangebot wären, hätten wir nicht die Preise wie sie sind. Das Angebot ist gefühlt 100% unter dem muss
 
ich erinnere mich, dass das in dieser sehr ungefähren Roadmap tatsächlich so eingezeichnet war, ja.
Aber 5nm wird dann noch nicht ready sein für solche Mengen. Höchstens CDNA Produkte sehe ich da möglich. Aber klar wärs gut, jährlich was draufzusetzen. 50% Effizienzsteigerung würde ich natürlich gerne sehen OHNE neuen Prozess, dann wär AMD wohl wirklich wieder vor Nvidia
RNDA3 kommt erst im 2HJ22, d. h. bis dahin ist noch ein wenig Zeit und TSMC erhöht schon dieses Jahr beträchtlich die 5nm-Kapazitäten, d. h. die Frage stellt sich nicht wirklich. Beispielsweise hatte TSMC im letzten Jahr etwa gemittelt um die 90k WPM in 5nm und die Kapazitäten sollen sich in 2021 bereits auf 120k WPM erhöhen (grob über den Daumen gepeilt gehen davon etwa bestenfalls um die 60k WPM an Apple).
Darüber hinaus ist aber noch unklar, ob RDNA3 überhaupt 5nm nutzen wird. In 2022 wird ein nennenswerter Teil von AMDs Produkten auf dem kostengüstigeren N6 aufsetzen und auch für die Consumer-GPUs wäre das nicht abwegig. Beispielsweise weist AMD auf seiner (sehr groben) Zeitskala für die CPUs, hier Zen4, explizit "5nm" aus, wohingegen man bei RDNA3 dagegen ebenso explizit und deutlich abweichend nur ein marketintechnisches "Advanced Node" schreibt, d. h. für 2022 ist die Wahrscheinlichkeit hoch, dass das Zen4-CCD und ggf. noch CDNA2 die einzigen 5nm-Produkte bei AMD sein werden.

Im gleichen Zuge kann man auch bzgl. dem Ampere-Nachfolger bisher noch nicht sicher sein, dass der 5nm verwenden wird (dagegen deren Datacenter-Design wird sicherlich 5nm verwenden). Wenn Samsung keinen übermäßigen Andrang bzgl. ihrem 5LPE (oder 4LPE) hat, könnte nVidia hier große Anteile von beanspruchen, bisher ist aber auch noch nicht auszuschließen, dass man ggf. "nur" auf den 7LPP wechselt, insbesondere wenn es auch seitens AMD keinen übermäßigen Druck geben sollte, weil man auch hier ggf. auf einem 7nm-Node verbleibt.

Im Gegensatz zum teuren HBM scheint der Cache aber das deutlich bessere Rezept von AMD zu sein. [...]
Eine derartige Aussage benötigt zwingend zusätzliche Rahmenbedingungen, denn allgemeingültig ist die keinesfalls. Rein aus (leistungs)technischer Sich ist grundsätzlich HBM die bessere und zu bevorzugende Wahl. Der Cache ist immer nur ein Kompromiss, dessen Beschränkungen man schon derzeit bei RDNA2 in Verbindung mit 4K sieht, denn hier sinkt die Hit-Rate deutlich, da ein Cache aus Kostengründen nur eine gewisse Größe annehmen kann, weil er andernfalls zu viel Wafer-Fläche beansprucht.
In erster Linie ist der Cache für AMD selbst von Vorteil, weil er es ihnen ermöglicht etwas näher an das Leistungsäquivalent eines HBM-Designs heranzukommen und die Fertigungskosten dabei etwas niedriger zu halten. (Bei RDNA2 dürfte alleine der Cache schon etwa so viel Wafer-Kosten verursachen wie anderthalb Zen2/3-CCDs.)

Als ob. Wenn es nur 30% Unterangebot wären, hätten wir nicht die Preise wie sie sind. Das Angebot ist gefühlt 100% unter dem muss
100 % ... das würde effektiv bedeuten, dass es nicht eine einzige RDNA2-Karte zu kaufen gäbe. MF und ALT widersprechen dir da deutlich, entsprechend kann es auch nicht einmal gefühlt nahe 100 % liegen. ;-)

Um noch einmal die letzten JPR-Absatzzahlen für Add-In-Boards für 4Q20 zu zitieren: AMD ~ 1,9 Mio. Stück, nVidia ca. 9,1 Mio. Stück. Das beantwortet sicherlich nicht alle Fragen, gibt aber zumindest zu einem kleinen Teil mal etwas mit Zahlen untermauertes, anstatt immer nur ins Blaue zu raten.
Ergänzend dazu, sieht man sich die Verbreitung der Ampere-Modelle bei Steam an, kommen offensichtlich auch recht viele bei Gamern an, denn die prozentuale Entwickung dort ist durchaus beachtlich, insbesondere, wenn man die offensichtliche Knappheit berücksichtigt, d. h. erschreckenderweise ist der Markt gar noch bereit viel mehr zu bezahlen als die offiziell ausgerufenen Preise und hier dürften Pessimisten nun die Finger kreuzen und hoffen, dass die beiden großen Hersteller daraus keine "Lehren" ziehen ...
;-)
 
Zuletzt bearbeitet:
Zurück