Radeon RX 7000: AMD spricht nicht mehr vom Launch am 3.11.

Das hatte ich schon verstanden, aber letztlich stand man aktuell 14 Tage vor dem "Launch" und da werden die Karten schon produziert worden sein! Sonst hätte man schon vor Wochen von "reveal" gesprochen und gar nicht erst "launch" rausgehauen.
Dann prügelt man halt bei denen ein neues BIOS drüber, welches sie werkseitig höher taktet. Das wird auch eine Weile dauern, vor allem, da sie erstmal austesten könnten, wir weit sie gehen können / wollen. Sprich das von mir Geschriebene kann trotzdem der Fall sein. Solche kurzfristigen Änderungen gab es schon mehrfach von AMD, wie auch Nvidia und da ist es völlig irrelevant, ob die Karten bereits produziert worden.

Momentan hat ja Nvidia die 4080 12GB (aka 4070) "unlauncht" und dort wird auch davon ausgegangen, dass diese nun wesentlich später unter neuem Namen kommt, da alle Packungen momentan vernichtet und neu gedruckt werden müssen und auch das BIOS bei jeder Karte geflasht wird. Sprich die wurden auch bereits produziert...
 
Das Designziel das sich AMD mit RDNA3 auf die Fahnen geschrieben hat, ist offensichtlich aus einem extrem teuren Prozess so viel Performance / mm2 herauszuholen als möglich.

Man muss sich die im Raum stehenden Zahlen einfach mal auf de Zunge zergehen lassen:
NAVI 31: GCD mit 308mm2 (TSMC 5nm) mit 12288 Shading units.
Die zusätzlichen MCD's, die unter anderem die Speichercontroller und den IF-Cache beinhalten, sowie das wafer level packaging dürfte nur noch peanuts an den Gesamtkosten verursachen.

In Summe, dürfte NAVI31 wohl für in etwa für die Hälfte der Kosten eines AD102 zu fertigen sein.
Selbst wenn es sich am Ende herausstellen sollte, dass die RTX4090 10 -20% schneller ist, würde die voraussichtliche RX7900, wie auch die RTX7800 die jeweiligen Nvidia counterparts aus Preis/Leistungs Sicht förmlich zerstören.

Nvidia hat sich einfach verkalkuliert. Hat zur Zeit massig Karten im Abverkauf, die niemanden so wirklich interessieren und zu gleich massig extrem teure Wafer bei TSMC bestellt, bei denen die Ausbeute an Dies bzw. die Yield-Rate sagen wir mal freundlich ausgedrückt ziemlich unterirdisch ist.
Der crypto mining boom ist auch vorbei und bei den Leuten sitzt das Geld auch nicht mehr so locker wie auch schon.
Das kann nur im Desaster enden und zu guter Letzt werden sie förmlich von AMD aus Preis-Leistungstechnischer Sicht pulverisiert und ins Nirvana geblasen. Ich würde mal behaupten das die Zeiten auf Sturm in Santa Clara stehen und wenn nicht bereits jetzt dann spätestens nächstes Jahr.
Gutes Beispiel RTX4080 12GB für 1099€ und wenn EVGA noch 4000er Karten verkaufen würde, würden sie wahrscheinlich noch draufzahlen.

NAVI 31: GCD mit 308mm2 (TSMC 5nm)
1666083146701.png


AD102: 608mm2 (TSMC 4nm)
1666083066240.png


Auch bei NAVI 32: GCD mit 200mm2 (TSMC 5nm) sieht es nicht besser aus.
AD103: 379mm2 (TSMC 4nm)
AD104: 295mm2 (TSMC 4nm)
 
Letzte Generation: nVidia kommt überraschend mit einer Verdoppelung der FP32-Einheiten. Niemand hatte damit gerechnet – letzten Endes wurden die aber kaum voll ausgelastet, Vorteile wurden Richtung 4K aber sehr deutlich sichtbar.
AMD hat mit dem aufgebohrtem Infinity Cache und dem guten Prozess ordentlich Leistung in Standardanwendungen geliefert, das war ungefähr zu erwarten, die hohen Taktraten haben dann ein Modell ermöglicht, das – exklusiv mit Wasserkühlung erhältlich – bis 1440p gleichauf mit nVidia lag.

Diese Generation: nVidia reduziert überraschend die TDP um 25% – womit inklusive der Boardpartner niemand gerechnet hatte. Noch schlimmer: Die Karte wäre mit 300-350 Watt noch viel effizienter – bis schnellere Prozessoren verfügbar sind verschenkt nVidia also richtig viel Effizienz in Stock-Settings!
AMD wird auch mit 600 W und 3090 x2 gerechnet haben. Selbst wenn sie mit sagen wir 500 W auf 3090 x1,8 gekommen wären, stünden sie jetzt doof da auch wenn das Produkt zweifelsohne sehr kostengünstig herzustellen sein wird. Stromeinsparungen findet AMD dank Interconnect und mehr und breiter angebundenem Speicher und "nur" um grob einen Node verbessertem Prozess nämlich nicht auf der Straße. Damit ist auch der Taktvorteil hinfällig. Und der Infinity Cache, da nVidia ebenfalls (und in niedrigeren Ausführungsebenen) aufgespeckt hat.
Für nVidias Boardpartner sind die -25% ein Graus, erst Recht wo vielleicht auch -50% noch gut aussehen würden. Für die Konkurrenzsituation ist es aber wie der Moment mit den FP32-Ausführungseinheiten bei Ampère der kleine entscheidende Winkelzug von nVidia, der AMD ins Schwitzen bringen dürfte.
 
Kp wenn man den Artikel liest:
Anhang anzeigen 1405249

Und dann dein Kommentare dazu könnte man schon meinen das du, darauf anspielst das AMD angst hat vor Nvidia das sie ihren launch nach hinten verschoben haben um nochmals das Produkt zu überarbeiten.

Das der 3 kein launch event war muss eigentlich jedem klar gewesen sein.
Seid wann den launcht man den ohne davor ein Announcement gemacht zu haben?


Du bist lustig .

Und ein wenig langsam auch .

Das Amd nicht mehr von einem Launch spricht , worauf ich mich auf den Beitrag von PCGH beziehe , was ich auch so komunizierte verstehst du nicht ?!

Und ja , Amd hat so gut wie immer, sofort zumindest Verbal versucht zu konntern .

Aber diesmal ist ihnen angesichts der Brutalen Leistung der Nvidia RTX4090 auch dafür die Spucke weggeblieben. :D

Und bitte nochmal wer glaubt ernsthaft das Amd etwas gleichwertiges ( Leistung , FeatureSet , Stromverbrauch )zu einem kleineren Preis anbieten kann ?!
( Was wegen DLSS schon gar nicht geht , weil Amd nichts gleichwertiges hat ! )

Und damit auch noch hinterm Berg hält , bis Nvidia die RTX4090 Klasse Käufer abgegrast hat ?!

Dümmeres Marketing kann Amd gar nicht machen , ausser RDNA 3 ist nicht so gut geworden oder es gibt noch ganz andere Probleme seitens Amd von denen wir nichts wissen .
 
Zuletzt bearbeitet:
Du bist lustig .

Und ein wenig langsam auch .

Das Amd nicht mehr von einem Launch spricht , worauf ich mich auf den Beitrag von PCGH beziehe , was ich auch so komunizierte verstehst du nicht ?!

Und ja , Amd hat so gut wie immer, sofort zumindest Verbal versucht zu konntern .

Aber diesmal ist ihnen angesichts der Brutalen Leistung der Nvidia RTX4090 auch dafür die Spucke weggeblieben. :D

Und bitte nochmal wer glaubt ernsthaft das Amd etwas gleichwertiges ( Leistung , FeatureSet , Stromverbrauch )zu einem kleineren Preis anbieten kann ?!
( Was wegen DLSS schon gar nicht geht , weil Amd nichts gleichwertiges hat ! )

Und damit auch noch hinterm Berg hält , bis Nvidia die RTX4090 Klasse Käufer abgegrast hat ?!

Dümmeres Marketing kann Amd gar nicht machen , ausser RDNA 3 ist nicht so gut geworden oder es gibt noch ganz andere Probleme seitens Amd von denen wir nichts wissen .
Danke.


Und der Rest ist ja wohl Spekulatius wie mancher sagen würde.

Also zum Thema DLSS2.0-2.3 vs FSR 2.0-2.1:
AMD hat damit einen Konkurrenten zu DLSS. Und laut einiger Test ist FSR2 auch nicht viel Schlechter als DLSS2.
Ja zu DLSS3.0 haben sie wirklich keinen Konkurrenten. Wie wichtig aber einem das Feature ist muss jeder selber entscheiden.

Ich möchte nur anmerken das RDNA 2 sehr nahe an Ampere rankam was Rasterizing Performance angeht.

Meine Vermutung wäre erstmal das dieses auch der fall ist zwischen RDNA 3 und Lovelace.

Wie es mit der RT Performance aussieht, keine ahnung ich vermute aber das man mindesten die 3090 schlagen wird und sogar richtung 4080 16Gib kommen wird.

Aber genau wie deine Aussagen zur RDNA 3 Performance ist das alles nur Vermutungen und Glaskugel lesen.


AMD hält nichts hinter dem Berg , das Produkt wird schlicht noch nicht Marktreif sein.
Weil vlt. :
1: Treiber noch nicht fertig
2. Noch nicht genug Stückzahlen vorliegen.
3. Auf die Fertigstellunge der Partner Designs gewartet wird.

Nvidia ist einfach schneller gewesen als AMD was die Entwicklung angeht.
Man könnte fast meinen das deren RnD Budget Größer ist.

NV war auch schon bei der Letzten gen früher dran:
RDNA 2 release November 18, 2020
Ampere Release: 24. Sep. 2020
Quelle: Wikipedia
 
Danke.


Und der Rest ist ja wohl Spekulatius wie mancher sagen würde.

Also zum Thema DLSS2.0-2.3 vs FSR 2.0-2.1:
AMD hat damit einen Konkurrenten zu DLSS. Und laut einiger Test ist FSR2 auch nicht viel Schlechter als DLSS2.
Ja zu DLSS3.0 haben sie wirklich keinen Konkurrenten. Wie wichtig aber einem das Feature ist muss jeder selber entscheiden.

Ich möchte nur anmerken das RDNA 2 sehr nahe an Ampere rankam was Rasterizing Performance angeht.

Meine Vermutung wäre erstmal das dieses auch der fall ist zwischen RDNA 3 und Lovelace.

Wie es mit der RT Performance aussieht, keine ahnung ich vermute aber das man mindesten die 3090 schlagen wird und sogar richtung 4080 16Gib kommen wird.

Aber genau wie deine Aussagen zur RDNA 3 Performance ist das alles nur Vermutungen und Glaskugel lesen.


AMD hält nichts hinter dem Berg , das Produkt wird schlicht noch nicht Marktreif sein.
Weil vlt. :
1: Treiber noch nicht fertig
2. Noch nicht genug Stückzahlen vorliegen.
3. Auf die Fertigstellunge der Partner Designs gewartet wird.

Nvidia ist einfach schneller gewesen als AMD was die Entwicklung angeht.
Man könnte fast meinen das deren RnD Budget Größer ist.

NV war auch schon bei der Letzten gen früher dran:
RDNA 2 release November 18, 2020
Ampere Release: 24. Sep. 2020
Quelle: Wikipedia



Na also.
Laut deinen eigenen Ausführungen oben hat Amd nach dem Launch der Nvidia RTX4090 nicht,s Gleichwertiges.

Und auf meinen Hinweis das es extrem dummes Marketing von Amd wäre , Nvidia schon mal die RTX4090 Klasse Käufer abzugrasen zu lassen ,wenn Amd was vergleichbares hätte kommt nicht,s von dir ?

Ich glaube das Amd hinter verschlossenen Türen , gerade verzweifelt an allen Ecken und Enden der RDNA3 Karten feilen muss um nicht völlig blöd dazustehen ;)
 
Zuletzt bearbeitet:
Na also.
Laut deinen eigenen Ausführungen oben hat Amd nach dem Launch der Nvidia RTX4090 nicht,s Gleichwertiges.

Und auf meinen Hinweis das es extrem dummes Marketing von Amd wäre , Nvidia schon mal die RTX4090 Klasse Käufer abzugrasen zu lassen ,wenn Amd was vergleichbares hätte kommt nicht,s von dir ?

Ich glaube das Amd hinter verschlossenen Türen , gerade an allen Ecken und Enden der RDNA3 Karten feilen muss um nicht völlig blöd dazustehen ;)
DLSS3.0 ja dazu hat AMD wirklich nicht vergleichbares. DLSS allgmein schon. DLSS 3.0 ist stand jetzt aber nicht vielen Spielen verfügbar. Ändert aber nichts daran das AMD da nachlegen sollte.

2.
Doch das ist kein Dummes Marketing wenn das Produkt nicht fertig ist es nicht fertig.
Das hat nichts mit Marketing zu tuen. AMD braucht einfach noch zeit.

3.Ich glaube das AMD nicht wegen einer 4090 den launch verschoben hat. Sondern weil einfach das Produkt noch nicht fertig ist.


Und nochmal zum mitschreiben:
AMD lässt hier NVIDIA nicht den Marktabgrasen weil sie keine Ahnung von Marketing haben. Sondern weil sie schlicht noch keine Antwort darauf liefern können.
Falls ein Launch von AMD im Dezember geplant ist dann ist AMD im moment in der phase wo man die Karte . Gerade so dazubringt bestimte 3D Anwendungen auszuführen.
Der rest des Treibers folgen dann Mitte November.
Igor hat dazu mal eine Roadmap erstellt wann etwas passiert. Finde das gerade nur nicht.


Hier mal das ganze:
wenn man nun das was wir von RDNA 3 wissen einsetzten befinden wir uns irgendwo im bereich:
PVT
bedeutet ein launch ist frühesten Anfang Dezember geplant.

1666174063177.png



@FormatC
Weißt du was ich meine und hast du mir den link dazu ?
Danke
 
Zuletzt bearbeitet:
weißt du was ich meine und hast du mir den link dazu ?
Danke
Ja, ich weiß, was Du meinst. Da ich hier aber nichts von mir verlinken darf, weil sonst gleich wieder Ärger entsteht, kann und darf ich Dir leider nicht direkt helfen. Tut mir leid, aber Eure Moderation hat mich schon einmal wegen nur eines einzigen verlinkten Bildes abgestraft. :(

Bei Google kannst Du ja mal igorslab PVT BOM eingeben. Dann hast Du, was Du brauchst und ich meine Ruhe ohne Abmahnung :D
 
Die Nvidia 4000er sind mit der RTX4090 schon am Markt und die Verkauft sich offensichtlich angesichts der brachialen Leistung bei erstaunlich moderatem Stromverbrauch wie geschnitten Brot .:daumen:
Wieviele Modelle waren es denn?
Stromeinsparungen findet AMD dank Interconnect und mehr und breiter angebundenem Speicher und "nur" um grob einen Node verbessertem Prozess nämlich nicht auf der Straße.
Wenn dem so wäre, also AMD mit dem 1,8 fachen gerechnet hätte, wären die Aussagen von AMD mit +50% Effizienz dennoch im Raum! 1,8fache Leistung und +50% Effizienz bedeutet nichts anderes als einen guten Zweikampf im Spitzensegment!
DLSS3.0 ja dazu hat AMD wirklich nicht vergleichbares. DLSS allgmein schon. DLSS 3.0 ist stand jetzt aber nicht vielen Spielen verfügbar. Ändert aber nichts daran das AMD da nachlegen sollte.
Ich kann aktuell DLSS3 nicht mehr so recht lesen!
Es wird in ganz wenigen Szenarien (ja ich weiß, alle nutzen plötzlich genau dieses Szenario) einen echten Vorteil bieten in den meisten Szenarien wird es da sein und niemand wird es brauchen. DLSS3 kann nur in "ruhigen" Spielen funktionieren und auch dann nur in Bereichen wo mehr FPS nicht zum Spielen benötigt werden, sondern nur wo sie dem Auge schmeicheln, denn der Inputlag wird ja nunmal nicht verbessert und ob jetzt 40fps in Anno oder 80fps in Anno wird niemanden (außer den Leuten die eben auf den Balken gucken) interessieren. In schnellen Shootern und ähnlichem ist der Inputlag interessant, der wird aber nicht verbessert, eher verschlechtert (wobei das in meinen Augen zu vernachlässigen ist, wenn sich die ersten Infos bestätigen).
DLSS 2.3 ist für mich weiterhin das Argument, es gibt aktuell mit XeSS und FSR2 zwar grundlegend vergleichbare Techniken, die aber insgesamt nicht an Qualität und Speed von NV herankommen!
 
Wieviele Modelle waren es denn?

Wenn dem so wäre, also AMD mit dem 1,8 fachen gerechnet hätte, wären die Aussagen von AMD mit +50% Effizienz dennoch im Raum! 1,8fache Leistung und +50% Effizienz bedeutet nichts anderes als einen guten Zweikampf im Spitzensegment!

Ich kann aktuell DLSS3 nicht mehr so recht lesen!
Es wird in ganz wenigen Szenarien (ja ich weiß, alle nutzen plötzlich genau dieses Szenario) einen echten Vorteil bieten in den meisten Szenarien wird es da sein und niemand wird es brauchen. DLSS3 kann nur in "ruhigen" Spielen funktionieren und auch dann nur in Bereichen wo mehr FPS nicht zum Spielen benötigt werden, sondern nur wo sie dem Auge schmeicheln, denn der Inputlag wird ja nunmal nicht verbessert und ob jetzt 40fps in Anno oder 80fps in Anno wird niemanden (außer den Leuten die eben auf den Balken gucken) interessieren. In schnellen Shootern und ähnlichem ist der Inputlag interessant, der wird aber nicht verbessert, eher verschlechtert (wobei das in meinen Augen zu vernachlässigen ist, wenn sich die ersten Infos bestätigen).
DLSS 2.3 ist für mich weiterhin das Argument, es gibt aktuell mit XeSS und FSR2 zwar grundlegend vergleichbare Techniken, die aber insgesamt nicht an Qualität und Speed von NV herankommen!



Soviele das die Nvidia RTX 4090 trotz ca. 2000 ,- Euro und mehr zeitweise oder noch immer ausferkauft ist .

Und soviele das offensichtlich schon Händeringend auf Nachschub gewartet wird .:daumen:

Und Amd hat es wieder einmal nicht gebacken bekommen .



@ Igors Lab - Format C

Hier mal ein Video von einem Könner zur Nvidia RTX4090 .

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

So geht das . :D


:daumen:
 
Soviele das die Nvidia RTX 4090 trotz ca. 2000 ,- Euro und mehr zeitweise oder noch immer ausferkauft ist .
Wieviele sind das denn? Wenn ich zwei Karten liefer, dann sind diese eben schnell ausverkauft!

Ich weiß es wirklich nicht, ich gehe aber davon aus, dass das 2000 EUR Segment nunmal kein Highsellersegment ist und bis auf wenige Verrückte (zu denen ich mich auch zähle) gar nicht in die Versuchung kommen, zum einen weil sie es nicht haben und zum anderen weil ihnen das Hobby derartig viel gar nicht wert ist.
Und Amd hat es wieder einmal nicht gebacken bekommen .

Weil sie jetzt die Karten um zwei Wochen verschieben? Alles andere sind nur Mutmaßungen, niemand weiß ob es ein Paperlaunch wird, ob AMD nur verschiebt, weil sie mit bspw. 600W planen und jetzt merken, dass sie nur 250W brauchen um NV zu schlagen, oder dass sie bspw. mit 300W geplant haben und nun auf 550W aufbohren müssen?

Allerdings hat greymon (der in der jüngeren Vergangenheit oft eher negative Leaks zu AMD Karten brachte) wohl gerade geleakt, dass die TGP von AMD fantastisch aussieht und die Karten die zweifache Rasterleistung bringen. Allerdings hat er auch erwähnt, dass man RT nur verdoppelt hat, was eben nicht ausreichen wird um NV dort auch nur im Ansatz anzugreifen.
 
[...]

Weil sie jetzt die Karten um zwei Wochen verschieben? Alles andere sind nur Mutmaßungen, niemand weiß ob es ein Paperlaunch wird, ob AMD nur verschiebt, weil sie mit bspw. 600W planen und jetzt merken, dass sie nur 250W brauchen um NV zu schlagen, oder dass sie bspw. mit 300W geplant haben und nun auf 550W aufbohren müssen?

Allerdings hat greymon (der in der jüngeren Vergangenheit oft eher negative Leaks zu AMD Karten brachte) wohl gerade geleakt, dass die TGP von AMD fantastisch aussieht und die Karten die zweifache Rasterleistung bringen. Allerdings hat er auch erwähnt, dass man RT nur verdoppelt hat, was eben nicht ausreichen wird um NV dort auch nur im Ansatz anzugreifen.
Das denke ich auch, dass es ein spannendes Rennen wird und AMD jetzt noch mal beim BIOS Hand anlegt. Denke das wird auch AMDs Karten wesentlich näher an den Sweetspot bringen und damit super effizient machen! Ärgerlich, dass nVidia auch Ada noch soweit über'm Sweetspot ausliefert...

So wie AMD das mit dem Eco Mode bei den Ryzen 7000ern geregelt hat lobe ich mir das! Dann bräuchte man sich nicht den Mund fusselig reden, dass Computer Base mit jenen Settings die Effizienz aber ganz anders sieht als PCGH mit Stock Settings und eigentlich aber mit Undervolting noch...

Einfach einen Schalter in Afterburner & Co. einbauen, der "effizient" laufen lässt oder (dank überdimensionierter Kühler) mit viel Saft den Längsten produziert.
Dann läge die 4090 (siehe IgorsLab & der8auer) bei 300-350 Watt immer noch rund 80% vor der 3090. Und die neue Radeon wäre so sicher auch viel effizienter. Und wer will kann bei der 4090 auf 600 W "ausfahren" und für 70-100% mehr Verbrauch 15% mehr Leistung bekommen – in der Praxis machen das viele ja so, ich switche auch immer munter zwischen diversen V/F-Kurven hin und her je nach Anwendung. Aber wenn das die Hersteller schon einbauen würden!
 
Aber wenn das die Hersteller schon einbauen würden!
Zumindest bei AMD gibt es das!
Im AMD Treiber kann man das einstellen, sowohl für die CPUs über das Tool Ryzen Master, als auch im Adrenalin für die GPU. Bin mir ziemlich sicher, dass Nvidia und Intel genau so etwas auch bieten.

P.S.
Je nach Hersteller der Karte gibt es ja gar zwei unterschiedliche BIOS Profile, die man per Software switchen kann (so auch bei meiner Sapphire). Hier kann man dann auch echt übertrieben viel machen, wobei das eben schon massives OC (bwz. UV) ist und da kann man sich in zwei BIOS Versionen komplett austoben. Spiele aktuell FarCry 6 durch und die 6900XT läuft konstant unter 200W.
 
@BigBoymann Naja weder ein physischer Schalter noch ein Programm das erfordert, sich mit einem Dutzend Parametern und Kurven auseinanderzusetzen wäre gut.
Die Doppel-BIOSe sind ja meist "Silent" und Leistung. Silent verbraucht meist weniger – aber es will ja auch nicht jeder die Hardware die ganze Zeit maximal heiß mit Thermal Throttling fahren.

Deshalb: 1-Click OC und 1-Click UV für alle, jetzt! :nicken:
 
@BigBoymann Naja weder ein physischer Schalter noch ein Programm das erfordert, sich mit einem Dutzend Parametern und Kurven auseinanderzusetzen wäre gut.
Die Doppel-BIOSe sind ja meist "Silent" und Leistung. Silent verbraucht meist weniger – aber es will ja auch nicht jeder die Hardware die ganze Zeit maximal heiß mit Thermal Throttling fahren.

Deshalb: 1-Click OC und 1-Click UV für alle, jetzt! :nicken:
Im Adrenalin kannst du mit zwei Klicks (mehr als einer ist es dann doch) die GPU undervolten
 
Erst DLSS jetzt YT....:kaffee:


Wird das hier jetzt ein "Laberthread für Alles"? :stupid:

Wenn ihr nichts mehr zum Thema des Artikels(!) beizutragen habt, dann lasst es einfach.

Ein anderes der
1666425388116.png
wird schon zu euch passen, ansonsten dürft ihr jederzeit ein eigenes aufmachen.
 
Zurück