Geforce RTX 4000: Verschiebung wegen zu vieler RTX-3000-Karten am Markt? [Gerücht]

Im Kern: Dass es AMD gelungen sein soll, den 3D-V-Cache auch zu GPUs zu porten und damit Kosten zu senken und Performance ordentlich zu steigern, während Nvidia bei streng monolithisch verharrt.
Generell ist ihre eigene Angabe von nur >50% Perf-Per-Watt-Gewinn natürlich recht niedrig. Ich glaube aber, dass das ein niedriges Stapeln ist.
3D-Cache hat doch nichts mit Monolithisch vs MCM zu tun? 3D Stacking kann man doch bei beiden nutzen?

Hast Du einen Link zu dem "Gerücht"? Ich bin neugierig und frage mich wie die Abwärme dann abgeführt werden soll.
 
Denke auch mit RDNA3 hat AMD mal wieder gute Chancen den Sack komplett zu zu machen und Herrschaft im Highend zu übernehmen aber das muss Nvidia ja nicht gefallen und kann vielleicht mit dem Nachfolger von ADA wieder kontern ...
Ada wird RDNA3 mal wieder Meilenweit hinter sich lassen und die AMD Verfechter werden sich an jeden Strohhalm klammern und von irgendwelchen Wundertreibern philosophieren, Cherrypicking betreiben oder Features wie DLSS und RT ausklammern. :ugly:
 
Zuletzt bearbeitet:
Experten wie ich, die den Markt aufmerksam beobachten sind sich aber einig, dass AMD auch ohne Treiber diesmal gute Karten hat einen Machtwechsel herbei zu führen.
Das Segen an Ndivias Tron hat bereits begonnen.
 
Die 4000er Generation wird deutlich schneller und vor allem auch effizienter. Samsung 8nm+ -> TSMC 4nm. Bleibt als einziges Argument wirklich 24GB, wenn man sie braucht.

3090 > 1500€
4070 ~ 600€, 3090 Leistung, 250 Watt max. (UV) ...

So stelle ich mir das im Moment vor. Aktuelle Highend für über 1000€ gibt es bald eben bei der 4060 und 4070 für deutlich weniger Geld und mit weniger Stromverbrauch. Diese wird bei mir dann wie die 1070 sicherlich wieder 6 Jahre halten.

Effizienter erstmal abwarten
Die 4000er Generation wird deutlich schneller und vor allem auch effizienter. Samsung 8nm+ -> TSMC 4nm. Bleibt als einziges Argument wirklich 24GB, wenn man sie braucht.

3090 > 1500€
4070 ~ 600€, 3090 Leistung, 250 Watt max. (UV) ...

So stelle ich mir das im Moment vor. Aktuelle Highend für über 1000€ gibt es bald eben bei der 4060 und 4070 für deutlich weniger Geld und mit weniger Stromverbrauch. Diese wird bei mir dann wie die 1070 sicherlich wieder 6 Jahre halten.

Ich bezweifle stark, das man die 4090, wie einige hier schreiben für 1499€ bekommen wird, auch wenn es keinen Run und damit wieder einen Ausverkauf geben wird, der die Preise hochtreibt.

Die "Rumors" vermelden Preise von 1999.-$, was ohne Steuern und den "Euro Umrechnungsfaktor" mit lokalem Händleraufschlag, Preise weit über 2000€ erwarten lässt.
Ich würde mich schon mal bei einer 4090 auf 2300-2500€ einstellen.
 
3D-Cache hat doch nichts mit Monolithisch vs MCM zu tun?
Klar hat das was miteinander zu tun. Denn...
3D Stacking kann man doch bei beiden nutzen?
...wenn du mehr als einen Chip direkt nebeneinander hast, ist das ganze nicht mehr monolithisch.
Hast Du einen Link zu dem "Gerücht"? Ich bin neugierig und frage mich wie die Abwärme dann abgeführt werden soll.
Hier in aufbereitet:
 
Experten wie ich, die den Markt aufmerksam beobachten sind sich aber einig, dass AMD auch ohne Treiber diesmal gute Karten hat einen Machtwechsel herbei zu führen.
Das Segen an Ndivias Tron hat bereits begonnen.
Experten fabulieren nicht von Dingen wie Machtwechsel.

Und Rechtschreibexperten sind sich einig, dass es sägen, Nvidia und Thron heißt und dass da mehr Kommas nötig wären. Grammatikexperten sagen dagegen nichts. Die schnappen noch nach Luft!
 
Klar hat das was miteinander zu tun. Denn...

...wenn du mehr als einen Chip direkt nebeneinander hast, ist das ganze nicht mehr monolithisch.

Hier in aufbereitet:
Bitte wie?

Man kann doch auf einen monolithischen Chip auch 3D Cache packen? Genauso wie man bei MCM alle Chips mit 3D Cache bestücken kann?

MCM = Multi-Chip Module -> heißt es sind mehrere GPU DIEs nebeneinander geschaltet, wie bei den Ryzen CPUs.
Monolithisch = 1 GPU/CPU = 1 DIE

Mir ist nicht bekannt dass Monolithisch das 3D Stacking ausschliesst.
 
Eine mehr zwei Jahre alte Grafikkarte wie die RTX 3080 kostet derzeit exorbitante 900 €. Dementsprechend gibt es keineswegs "zu viele" RTX-3000 Karten am Markt. Denn Angebot und Nachfrage bestimmen den Preis. Wäre das Angebot angemessen, läge der Preis bei vielleicht 500 €.

Wenn nun dennoch so getan wird, als gäbe es zu viele Karten, stecken dahinter schlicht übertriebene Profiterwartungen.
 
Mir ist nicht bekannt dass Monolithisch das 3D Stacking ausschliesst.
Dann nutzt du schlicht und ergreifend eine andere Definition von MCM und monolithisch als ich.
Für mich bedeutet monlithisch, dass der Schaltkreis nur aus einem Chip besteht. Mit einem gestakten Cache-DIE besteht er aber aus mindestens zweien und damit handelt es sich um ein MCM.
heißt es sind mehrere GPU DIEs nebeneinander geschaltet, wie bei den Ryzen CPUs.
Wäre für dich dann ein 5800X keine MCM-CPU, weil es nur ein Compute-DIE gibt? (neben einem IO-DIE, das aus irgendwelchen Gründen nicht zählen würde?)
 
Jetzt noch ne 3000er Karte kaufen?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Witzig, erst machen die Händler den dicken Reibach mit 200% Preisaufschlag und jetzt weinen sie dass sie ein paar Karten nicht mehr los werden. Und wie NV Händler "zwingt" Karten abzunehmen wüsste ich gerne. Vermutlich haben die Händler aufgrund der aktuell hohen Margen viel nachbestellt und sitzen jetzt da mit ihren Verträgen. :lol:

Ob RTX4000 jetzt im Oktober / November / Dezember kommt wäre aber keine wirklich große Verschiebung, sehe ich zumindest so.
Du kaufst uns X Stück ab, sonst wirst du demnächst "nachgereiht" (=du bekommst keine Karten mehr in den ersten Monaten wo sie nennenswert was abwerfen)

Du hast zuletzt lange mit mir diskutiert weil ich gesagt habe, dass Nvidia ihre Preispipeline gut im Griff hat und genauso an der Knappheit und den Preisaufschlägen mitverdient hat.
Tja, blöd gelaufen Nvidia. Jetzt müsst ihr eure Karten doch zu humanen Preisen anbieten.
Vorher verschrotten sie die, sonst kommt ja die Preisgestaltung der Next Gen in Gefahr.

Wie oft noch, die Händler machen die Preisaufschläge...
...
Die Händler sind die kleinsten Tiere im Rudel und dürfen zuletzt an den Kadaver. Glaubst du die Margen in der IT sind so hoch? Da sprechen wir oft von einstelligen Prozentwerten. Darum sind kleinere Elektronikhändler auch schon vor Ewigkeiten untergegangen.
In Situationen wie diesen gestalten AMD, Intel und Nvidia den Preis. Wenn die Produkte nicht mehr zum ursprünglichen Preis verkauft werden können, bieten sie entsprechende Kickback-Zahlungen an, natürlich nur an (Groß-)Händler die spuren. Oder AIBs wie Asus regelns über Cash-Backs für die Kunden selbst. Glaubst du, die 100€ schenkt Asus den Händlern einfach so? Das ist Teil deren eigener Marge. Die 100€ würden den jeweiligen Händler in die Verlustzone befördern.
Nö, das will ich nicht. Aber schön dass Du mir wieder solchen Quatsch unterstellst. Ein Quasi-Monopol würde anders aussehen als das hier:
:wall:
Du schreibst eh selber, dass das iGPUs miteinbezieht. Da wird also jeder Office-Rechner und Laptop mit Intel CPU als Intel "GPU" gezählt. Technisch korrekt, aber im Bereich dGPU um den es hier geht eben absolut wertlos. Du vergleichst ja auch nicht Honda und Yamaha anhand der verkauften Motorräder und wirfst VW in den Mix, weil die ja auch Fahrzeuge produzieren?
 
Dann nutzt du schlicht und ergreifend eine andere Definition von MCM und monolithisch als ich.
Für mich bedeutet monlithisch, dass der Schaltkreis nur aus einem Chip besteht. Mit einem gestakten Cache-DIE besteht er aber aus mindestens zweien und damit handelt es sich um ein MCM.
Beim 3D Stacking bleibt ein monolithischer DIE trotzdem 1 Chip. Es wird ja nur oben drauf gestacked...


Wäre für dich dann ein 5800X keine MCM-CPU, weil es nur ein Compute-DIE gibt? (neben einem IO-DIE, das aus irgendwelchen Gründen nicht zählen würde?)
Nö, der 5800X ist ein MCM wobei auf dem CCD eben der extra 3D Cache gestacked ist.

https://www.heise.de/news/AMD-Ryzen...n-Spielen-vor-dem-Core-i9-12900K-6317513.html

Es sitzt oben auf dem Cache-Compute-Die (CCD) und ist über Through-Silicon-Vias (TSVs) im Bereich des normalen L3-Caches mit dem Prozessor verbunden.

Wieso sollte man auf einen monolithischen Chip keinen 3D Cache setzen können? Die Frage hast Du bisher nicht beantwortet.
 
Na das ist eigentlich selbstverständlich.
Wenn du aus eigenen Stücken den Abschlag höher ansetzt als der Stromanbieter, kommt es so gut wie nie in der Jahresabrechnung zu einer Nachzahlung sondern einem Guthaben.
Ich versuche eigentlich nahe 0 anzustreben. So ist das auch gedacht in meinen Augen. Ich zahle aber auch lieber was nach, als auf mein Geld zu warten ?
Ist ja auch mal ganz nett, wenn du 150 € wieder bekommst. ^^
Ich weiß nicht. Ist ja Geld, dass man vorher zu viel bezahlt hat. Insofern finde ich "Geld bekommen" etwas falsch formuliert ?
 
AMD kann einfach weniger produzieren, weil sie ihre gebuchten Fertigungskapazitäten aufteilen (Konsolen-SOCs, Zen 2/3, Van Gogh fürs Steam Deck, mussten. Das ist alles.

Warum war die Verfügbarkeit dann bei AMD eher besser und die Preise sind eher und stärker gesunken im Vergleich zu Nvidia?

PS: Ich bin auch Experte und sehe Nvidia im Vorteil!
 
Wieso sollte man auf einen monolithischen Chip keinen 3D Cache setzen können? Die Frage hast Du bisher nicht beantwortet.
Natürlich habe ich das beantwortet: Wenn man auf monolithisches Design einen Chip stacked, dann ist das Design nicht mehr monolithisch:
Mit einem gestakten Cache-DIE besteht er aber aus mindestens zweien und damit handelt es sich um ein MCM.
Beim 3D Stacking bleibt ein monolithischer DIE trotzdem 1 Chip. Es wird ja nur oben drauf gestacked...
Klar. Aber danach sind es insgesamt zwei DIEs. → MCM.
Wie gesagt, es ist eine Frage der Definitionen. Meine habe ich offen gelegt, damit ist die Sache gegessen.
 
Warum sollten auch volle Lager mit neuen Karten aufgestockt werden? Würde keiner machen.

Am Ende sehe ich aber auch das Problem eher beim Verbrauch der Karten. Wenn man schon von 700W im Peak spricht, da sind das ein paar Hundert Watt zu viel.

Zum Glück werden einige Modelle an der Kotzgrenze betrieben, da kann man zum Glück von Hand noch einiges machen damit die genügsamer werden und trotzdem noch 95% ihrer Leistung haben.

Hast du eine Quelle zu den 700W Peak? Hört sich an, als ob das schon fest steht.
Wenn man die letzten Gerüchte nimmt, rtx4090 bei 450W und dazu die Begrenzung der Peaks, der 3090TI sehe, könnte man auch gut auf die Idee kommen, das die RTX4090 nur Peaks bis 560W haben könnte.

Also genau so hoch wie bei der Sapphire 6950XT Nitro + .
Man muss noch ein wenig schauen, was da wirklich auf den Markt kommt.

AMD Karten gibt es Teilweise schon unterhalb der UVP also "JA" der böse Jensen und die bösen gierigen Händler die sollen alle mal auf die Nase Fallen nach dem Höhenflug!
Ab Oberklasse, aber nur die 6900XT. Die 6800 kostete gestern noch 660€. Das sind 80€ über UVP.

Die war vor ein paar Tagen im Angebot für 630€, was auch noch 50€ über der UVP ist. Bei der 6800XT sieht es ähnlich aus.


Ich glaub da gibt es zur Zeit immer noch zu viele NV Fans für !
Dafür müsste AMD ein überragendes Produkt an den Start bringen welches in jeder Disziplin NV aussticht erst dann könnte man den Kern dazu bewegen sich um zu orientieren!

Wen die 3000 Dollar für die 4090 Stimmen bin ich raus !
Dann kucke ich auf jeden Fall was AMD da Parrat hat!

Ich glaube, die Welt dreht sich nicht darum, das es Hardware Fans gibt. Ich persönlich glaube das der Großteil, einfach nach seinen eigenen Kriterien kauft. Einfach das Produkt, das besser zu den eigenen Wünschen passt. Das wird in den meisten Fällen nichts mit Fan-Sein zu tun haben.

Aber natürlich wird es so sein, das AMD erst ein Produkt auf den Markt bringen muss, das einfach besser ist, um den Großteil des Marktes für sich zu gewinnen. Alles andere wäre irrational.
Warum war die Verfügbarkeit dann bei AMD eher besser und die Preise sind eher und stärker gesunken im Vergleich zu Nvidia?

PS: Ich bin auch Experte und sehe Nvidia im Vorteil!
Zu welchem Zeitpunkt das denn. Habe lange auch nach einer RX6800 Ausschau gehalten, aber war eher schlechter, meiner Meinung nach.
 
Zurück