RTX 4080 12GB: Auch die Boardpartner machen eine Rolle rückwärts

[...]
Wir wissen Nvidia hat den L2 Cache massiv von 6MB auf 72GB erhöht, aber das scheint nichts geholfen zu haben.
Wir nehmen zur Kenntnis, dass der GDDDRX6 Speicher im Wesentlichen der gleiche ist, vielleicht sehen wir hier das Limit. Wir würden ja auch kein GDDRX4 auf eine 3080 schnallen und erwarten, dass die 100% ihrer Leistung liefert. Vielleicht sehen wir hier das Limit von GDDRX6.
[...]
Wie kommst du auf so einige unsinnge Aussage "nichts geholfen"? Schon mal gesehen welch' brachiale Leistung die 4090 abliefert? Schon mal bemerkt wie viele Shader hier parallel werkeln? Glaubst du allen Ernstes diese Leistung bzw. konkret den Durchsatz auf den Shadern könnte nur der OC-GDDR6 *) gewährleisten? Selbstredend nicht und der deutlich vergrößerte Cache wird genau das leisten wofür er implementiert wurde, nämlich nicht gezwungen zu sein das SI weiter verbreitern zu müssen für die deutlich erhöhte Anzahl an Shadern, sondern bei 384 Bit bleiben zu können, weil es zunehmend unwirtschaftlicher wird ein nochmals breiteres SI mit GDDR zu implementieren. Technisch wäre natürlich noch so manches möglich, aber am Ende geht es hier selbstredend auch primär um die Marge und nicht etwa darum ein paar Gamern ein Lächeln ins Gesicht zu zaubern, denn schlussendlich will man hier Geld verdienen.
Entsprechend wurde der Cache derart dimensioniert, dass der das gesetzte Ziel bestmöglich unterstützt und sich möglichst gut bzgl. Kosten und Nutzen in die Gesamtbilanz einreiht und das ganze wird noch flankiert mit ein wenig schnellerem Micron-Speicher, weil der grundsätzlich zur Verfügung steht, da Micron seine Fertigung optimiert hat. Der Cache liefert genau das was er soll und hilft zweifellos.

*) Randbemerkung: Genaugenommen ist die Bezeichnung "GDDR6X" falsch, da es keinen JEDEC-Standard dieser Art gibt und es sich bei dem OC-Speicher von Micron mit PAM4-Signalisierung um eine proprietäre Entwicklung handelt.


Zu nVidia's "Rückzieher". Letzten Endes ging es nur darum offensichtlich einen deutlichen Preisnachlass vermeiden zu können. Der Chip in möglicherweise der gleichen Ausbaustufe wird so oder so kommen und schlussendlich spielt der Name auch überhaupt keine Rolle, da dieses Leistungssegment selbstredend auch belegt werden will. Einzig der Preis wollte dem allgemeinen Empfinden nach nicht so ganz zur dargeboteten Leistung passen, sodass man hier nun anpasst.
Letzten Endes weiß man aber auch noch nicht mal so genau was der tatsächlich Grund ist, denn das Gejammer und Gemecker im Netz dürfte nicht unerwartet kommen und es erscheint unwahrscheinlich, dass nVidia hier nicht drauf vorbereitet gewesen wäre. Vielleicht hat sich ja zwischenzeitlich auch die Informationslage zum Portfolioaufbau des Konkurrenten verdichtet und man sah nun keine Möglichkeit mehr ein derartig dimensioniertes Produkt für einen solchen Preis im Markt zu platzieren? (Letzten Endes ist das immer ein Wechselspiel der diversen Marktteilnehmer. Als Marktführer kann nVidia natürlich einen Bonus aufschlagen, unbeschränkt überhöhte Preise würde ihnen der Markt aber dennoch nicht abnehmen.)


Anmerkung am Rande, weil ich vorhin irgendwo die Verwunderung/Frage gelesen hatte: Die rel. große Lücke zwischen der großen 4080 und der 4090 wird früher oder später von einer 4080 Ti geschlossen werden, das ist offensichtlich.
Entweder, weil man schon eher früher was zur konkreten Anpassung an AMDs oberes, dann vollständig bekanntes RNDA3-Portfolio benötigt oder später, wenn es Zeit für einen Refresh wird im 2HJ23 um die Verkäufe für das zweite Jahr dieser Generation noch mal anzukurbeln. Business as usual.
 
Zuletzt bearbeitet:

Anhänge

  • 6900@699€.JPG
    6900@699€.JPG
    61,8 KB · Aufrufe: 72
Wenn Du ehrlich bist, sind wahrscheinlich noch weniger Karten im Umlauf wie zu Release der 3000er Karten. Wenn man sieht, wie viele Leute ne Bestellbestätigung haben, aber noch mindestens zwei Wochen warten müssen bis die Karten aufschlagen, kann das ja nicht die Menge(n) sein, die vom Lederluden versprochen wurde.
Es gibt keine Daten die deine Aussage unterstützen außer deine persönliche Auffassung, dass viele Leute ne Bestellbestätigung haben, was halt fast nichts wert ist.
Alle Berichte mit wirklichem Kontakt zu den Händlern (wie der in diesem Thread verlinkte von Golem ) sowie die Infos aller Leaker im Vorfeld sprechen von einem guten Volumen, nicht nur vs Ampere sondern allgemein. Außerdem soll der Nachschub auch gut sein und zügig kommen, mit anderen Worten die 4090 verkauft sich ausgezeichnet, bei gutem Nachschub und dem Preis dürfte es trotzdem nicht lange dauern, bis die Karten größtenteils auf Lager sind.

Boostclock 3090 = 1695
Boostclock 4090 = 2520

Das ist ein Boostclock Vorteil von Faktor 1,48 für die 4090.
Obendrauf zum Cuda-Count Vorteil von Faktor 1,56

Das wäre in der Summe ein Vorteil von Faktor 2,3, aber nicht einmal der Halo Benchmark von der PCGH schafft es, dass die 4090 um Faktor 2,3 schneller ist als die 3090 und der Durchschnitt zieht erheblich nach unten.

Das bringt mich zu einem ganz bösen Wort, das ich zweifelsohne bis heute Nacht bereue gesagt zu haben hier und das ist Flaschenhals, die 4090 hat einen. Denn sonst würde sie, wie du ja auch annimmst, nach Cuda und Takt skalieren und nicht nur nach einem von beiden.

Wir wissen Nvidia hat den L2 Cache massiv von 6GB auf 72GB erhöht, aber das scheint nichts geholfen zu haben.
Wir nehmen zur Kenntnis, dass der GDDDRX6 Speicher im Wesentlichen der gleiche ist, vielleicht sehen wir hier das Limit. Wir würden ja auch kein GDDRX4 auf eine 3080 schnallen und erwarten, dass die 100% ihrer Leistung liefert. Vielleicht sehen wir hier das Limit von GDDRX6.

Für die "kleinen" Modelle wären das aber gute Nachrichten. Denn wenn der Flaschenhals dadurch kommt, dass nicht alle Cudas voll ausgelastet werden, dann würde der Zuwachs den wir im PCGH Test sehen vor allem vom Takt herrühren. Dann bekommt der RAM einfach nicht die vielen Cuda Kerne bedient und das Cache Upgrade hilft da auch nicht. Dann sollten RTX40 Modelle mit weniger Cuda aber trotzdem RTX30 Karten mit gleicher Cuda Anzahl sehr einfach outperfomen.

Als Anhaltspunkt dafür haben wir nur den Nvidia Benchmark der die 4080 bei 73% einer 4090 einordnet. Wenn sie das mit 59% der Cuda Kerne einer 4090 schafft muss man innerhalb einer Generation wirklich sagen, dass es hier einen Grund geben muss, warum die gleiche Architektur unterschiedliche Effizienz zu haben scheint. Ein Hinweis mehr auf einen Flaschenhals.

Die andere verrückte Theorie wäre, dass nicht jedes Spiel mit beliebig vielen Cuda Cores skaliert, oder nicht beliebig mit dem Cuda Takt. Das wäre dann vielleicht so eine Treiberlimit Geschichte, wo Nvidia ja auch jüngst 10% für alle gefunden hat mit denen niemand gerechnet hätte.

Ich werde das jedenfalls nachrechnen, sobald die PCGH Test zu den anderen Karten hat, denn die Frage in wie weit mehr Cudas und mehr Takt Einfluss auf die Leistung der RTX40 Generation haben, scheint ja doch eine sehr spannende Frage zu werden. Bei der RTX30 war das ja tot-langweilig, da konnte man die Benchmarks der Karten am Küchentische ausrechnen ohne sie testen zu müssen.
Die Shadereinheiten skalieren nicht linear und das haben sie auch schon in der 30er Serie nicht getan. Die 3070 hatte 56% der Shader, aber 68% der Performance einer 3090 (laut Techpowerup, nach PCGH-Index sogar 72% Performance), beide haben in etwa die gleichen Boostclocks.
Nvidia hatte mit der Verdopplung der FP32-Performance der 3000er-Serie definitiv Probleme bei der Auslastung? vieler Recheneinheiten, das hat sich mit Ada wahrscheinlich nicht geändert (die Architektur ist ja sehr ähnlich) und im Fall der 4090 sogar noch verschlimmert durch ~60% mehr Cuda Cores.
Würde man Ampere gleich Ada setzen, müsste die 4080 16Gb bei ~72% der 4090 im PCGH-Index landen (also ziemlich genau Nvidias eigene Zahlen). Da die 80er weniger stark in 1080p und 1440p limitieren wird als die 4090 wahrscheinlich sogar etwas höher, da der Leistungsindex ja Auflösungen zu gleichen Teilen berücksichtigt.
Nach kurzem Überschlagen komme ich dann auf einen Vorteil der 4080 von ~25% gegenüber der 3090 in 2160p, das wäre ziemlich genau einfach nur das Taktplus abzüglich der paar Shader und einem "Architekturbonus" im einstelligen Bereich.
 
Wie kommst du auf so einige unsinnge Aussage? Schon mal gesehen welch' brachiale Leistung die 4090 abliefert? Schon mal bemerkt wie viele Shader hier parallel werkeln? Glaubst du allen Ernstes diese Leistung bzw. konkret den Durchsatz auf den Shadern könnte nur der OC-GDDR6 *) gewährleisten?

Zu aller erst, ja, unter Einbezug von Enterprise HBM Karten denke ich Nvidia hat seine Gründe. Wir sehen das auch bei CPUs, wir sehen das bei AMD, da auch im Pro Bereich. Die Chips haben selten Probleme am Limit zu sein was das reine Ausrechnen angeht, sondern das rein und rausschafeln der zu berechnenden Daten ist die Kunst. Da ist die Software ein limitierender Faktor, deswegen ist eine 4090 ja nie konstant schneller, sondern mal um den Faktor 1,5 und Mal um den Faktor 1,9. Der andere Faktor scheint jedoch die Gesamtarchitektur zu sein. Denn von RTX30 waren wir es sehr wohl gewöhnt, dass die Karten mit 15% weniger Cuda Cores auch 15% weniger Leistung im Schnitt abliefern. Dass 5% Taktsteigerung auch die Leistung entsprechend abheben und nicht nur um 1%.

Unter dem Aspekt nehmen wir halt zur Kenntnis, dass die 4090 nicht das erreicht, was sie auf dem Papier erreichen sollte. Mit dem Problem steht Nvidia nicht alleine da. Man denke nur daran wie eine Arc ohne Rebar einbricht. Wie AMD versucht hat mit HBM jeden Fitzel aus Vega zu quetschen, weil der Chip eben einen Hunger nach schneller RAM Anbindung hat.

Ich würde sogar sagen, dass jeder GPU Hersteller das bevorzugen würde. Denn wenn man nur warten muss, dass schnellerer Speicher kommt und dann kann man eine Super Serie mit +10% Leistung auflegen, nur weil ein Flaschenhals nicht mehr ganz so schlimm ist, dann ist das gute Planung. Besser jedenfalls als Golden Samples zusammenzukratzen und dann bei 700W den Chip zu verheizen.
 
Nach kurzem Überschlagen komme ich dann auf einen Vorteil der 4080 von ~25% gegenüber der 3090 in 2160p, das wäre ziemlich genau einfach nur das Taktplus abzüglich der paar Shader und einem "Architekturbonus" im einstelligen Bereich.
ab 18. gibts im Gamepass PoT:R (preload ist schon möglich)
dann kannste mal vergleichen
 

Anhänge

  • Preis vs PoT-Perf.png
    Preis vs PoT-Perf.png
    118,2 KB · Aufrufe: 68
Würde man Ampere gleich Ada setzen, müsste die 4080 16Gb bei ~72% der 4090 im PCGH-Index landen (also ziemlich genau Nvidias eigene Zahlen). Da die 80er weniger stark in 1080p und 1440p limitieren wird als die 4090 wahrscheinlich sogar etwas höher, da der Leistungsindex ja Auflösungen zu gleichen Teilen berücksichtigt.
Nach kurzem Überschlagen komme ich dann auf einen Vorteil der 4080 von ~25% gegenüber der 3090 in 2160p, das wäre ziemlich genau einfach nur das Taktplus abzüglich der paar Shader und einem "Architekturbonus" im einstelligen Bereich.

Ich bin gespannt, denn Nvidias eigene Ankündigung zeichnet durchaus ein Bild einer 4080 die relativ launisch auf Software reagiert. Unterschiedliche Abstände zur 4090 müssen ja irgendwie zustande kommen.
 

Anhänge

  • geforce-rtx-40-series-gaming-performance.png
    geforce-rtx-40-series-gaming-performance.png
    490,7 KB · Aufrufe: 56
ab 18. gibts im Gamepass PoT:R (preload ist schon möglich)
dann kannste mal vergleichen
Ich habe keine Relevante GPU zum testen, also passe ich da mal :D

Die Europreise sind schon recht fragwürdig in dem Graph, da sie von den völlig unrealistischen 250% der 4090 ausgehen, das erreicht die Karte im Durchschnitt ja nicht mal ansatzweise, jedenfalls nicht ohne DLSS3.
Nimmt man F122 mit deutlich realistischeren +60% der 4090 gegenüber der 3090ti, dann wäre die 4080 16Gb bei etwa 1440€ (=UVP, also P/L so wie die 4090) und die "4080" 12Gb bei 1162€.

Die 4080 16Gb ist das eigentliche Problem und wird bei P/L sogar noch schlechter sein, als es die 4080 12Gb gewesen wäre. Der Name der kleiner 80er mag schlecht gewählt gewesen sein, aber sie war das "bessere" Produkt. Die gleiche Preis/Leistung wie das 2000€ Topmodell zu haben ist schon schwach, das lässt Ampere gar noch besser aussehen, erst recht jetzt ohne die 4080 12Gb. Könnte man fast glauben, Nvidia will die 3000er attraktiver machen als die 4000er, wie das wohl sein kann ...
 
Die Preise habe ich mal anhand der Performance interpoliert.(und grün ergänzt)

Schau einfach wie Deine eigene 2080Ti in dem Game so läuft.(wie ne 3070?)
vllt. überschätzt Du dann ne 4080-12 net mehr so gewaltig (der Abstand zur 4090 ist schon beachtlich)
 
Weiß sowieso nicht warum die da so rumtun... sollen sie es halt einfach richtig benennen und trotzdem die Preise lassen: 4060 899$, 4070 1099$ 4080 1499$... Die Leute zahlen es doch eh...
 
Wie ist den da die Rechtsprechung und muß Nvidia jetzt dafür haften(Schadenersatzkosten) ,wegen ihren Murks bzw. Umlabelungsmaßnahmen jetzt nachhinein? Schließlich ist es ja nicht nur ein Boardpartner die zig zehntausende Verpackung mit ihren persönlichen Abbildungen eventuell schon produziert haben.Und jetzt nochmal alles neu Herstellen müßen,das kostet alles Geld,Zeit und Personalkosten,Logistik ect.
Nvidia hat doch schon angekündigt die Kosten zu übernehmen!
Witzig finde ich, dass sich alle auf die 12GB Variante eingeschossen haben und Nvidia somit die generelle Preiserhöhung mit der 16GB Variante völlig geräuschlos durchbekommt.
Vielleicht wirklich ein Marketingtrick?
Die Karte wird sich wohl verkaufen.
Zwei große Probleme, der MiningBoom ist vorbei und die 12GB Version der 4080 dürfte kaum schneller sein als die 3080, der Abstand der 4080 12GB zur 4090 ist um ein so Vielfaches größer, als bei der 3080 10GB zu 3090. Die 4090 ist rund 50% vor einer 3090Ti, die 4080 16GB wird bereits 40% langsamer sein, die 12GB nochmals deutlich und daher leistungsmäßig mit der 3080(Ti) konkurrieren!

Du lässt den Takt komplett aussen vor? 9728 Cuda mit 2,5 Ghz vs 10495 Cuda mit 1,8 Ghz. Mich würde es schwer wundern wenn die 4080 16 GB nicht vor der 3090 liegt.
Davon muss man ausgehen, aber rechne Mal andersherum, 16.384 bei 2,3Ghz sind der Benchmark (ca. 50-60% vor der 3090Ti, rechnerisch kommt man dann auf 65% für eine 16GB Version, die 3090Ti hat sorum gerechnet 62,5% (bei 60% Vorsprung), wird also für die 3090Ti vermutlich reichen, aber schon sehr knapp und das zu Preisen die UVP über der aktuell verfügbaren 3090Ti liegen?
4080 bei 73% einer 4090
Empfinde ich jetzt nicht so weit weg von den rechnerisch ermitteleten 65%, davon wird ja noch das eine oder andere im CPU Limit sein, so dass die 4090 ihre Performance nicht 100% auf die Straße bringen konnte. Einfache Anrechnung, Shader x Takt und du kommst auf exakt 65% für die 16GB Version
 
Davon muss man ausgehen, aber rechne Mal andersherum, 16.384 bei 2,3Ghz sind der Benchmark (ca. 50-60% vor der 3090Ti, rechnerisch kommt man dann auf 65% für eine 16GB Version, die 3090Ti hat sorum gerechnet 62,5% (bei 60% Vorsprung), wird also für die 3090Ti vermutlich reichen, aber schon sehr knapp und das zu Preisen die UVP über der aktuell verfügbaren 3090Ti liegen?
Wieso vergleicht man die UVP einer neuen Gen mit den aktuellen Straßenpreisen der alten Gen? Sinnvoll ist das nicht. Sinnvoll ist der UVP Vergleich zu Release.
 
Sinnvoll ist ein Blick ins eigene Portemonnaie, da ist auch net der uralte Kontostand drin, sondern eher der aktuelle.

Selten war der Vgl. 6900@699€ vs 4080-12 "unlaunched" @1100€ passender!
(da legt man doch lieber ein paar Euro für die kommende Gasrechnung beiseite)
 

Anhänge

  • 6900@699€.JPG
    6900@699€.JPG
    61,8 KB · Aufrufe: 18
Wieso vergleicht man die UVP einer neuen Gen mit den aktuellen Straßenpreisen der alten Gen? Sinnvoll ist das nicht. Sinnvoll ist der UVP Vergleich zu Release.
Tja, wir wüssten ja im November Bescheid, müssen uns jetzt aber mit der Hälfte an Neuerscheinungen (1 statt 2) zufriedengeben. Immerhin kann man dann mit der gleichen Architektur und den gefühlten 40 Testberichten + Videos abzüglich Dimensionierung der Kühler sich genau ausrechnen, was die 12GB 4080 geleistet hätte: Eine wie ich finde aufgrund der zu erwartenden Größe und Netzteilanforderungen recht alltagstaugliche Grafikkarte. Wir dürsten danach, kriegen es aber nicht! Nvidias Wertverlust ihrer Aktie war nicht ganz unverdient. Hoffentlich bringen die Boardpartner wenigstens nachträglich sinnvolle Designs heraus: Das Potenzial für gute Hersellerkarten ist immens. Die Rechnerei jetzt finde ich ziemlich spannend.
 
mach Euro draus und man ist net mehr ganz so weit von ner 6900 weg
Die 4070 wird aber effizienter sein, mit massiv mehr RT Leistung also warum die 6900? Für 499€ okay kann man darüber reden aber 700€? So sollte sie releast werden vor 2 jahren. 350€ für 5%. Weis nicht was sich Amd da gedacht hat bei der presentation damals.
 
Sagt wer?

die 6900@300W ist kaum ineffizienter als ne 4070(4080-12)@285W
wie die Fps unter Raster ausfallen, wird man sehen

Net das da mal Einige zu überschwenglich sind. (ist garantiert kein 1100 Tacken wert)
 
Wieso vergleicht man die UVP einer neuen Gen mit den aktuellen Straßenpreisen der alten Gen? Sinnvoll ist das nicht. Sinnvoll ist der UVP Vergleich zu Release.
Weil das absolut hirnrissig ist. Man nimmt die Preise die man bezahlen muss un das Produkt zu bekommen nicht was der Hersteller empfiehlt.
? Was meinst du selbst Intel hat höhere RT Leistung als Amd. Für die jeweilige Klasse. Rt ist quasi unbrauchbar bei Amd.
 
Weil das absolut hirnrissig ist. Man nimmt die Preise die man bezahlen muss un das Produkt zu bekommen nicht was der Hersteller empfiehlt.

Verstehe den Zusammenhang hier nicht. Du hättest eine 4080 12 GB zum Preis einer 3080 12 GB bekommen wenn es nach UVP geht. Mit den aktuellen Straßenpreisen der alten Gen zu vergleichen ist nur bedingt sinnvoll, Du bekommst ja die neuen Features nicht (neue RT + Tensor Cores, DLSS 3).
 
Wahrscheinlich merken Manche nur die Bedeutung von aktuellen Preisen, wenn das Konto überzogen ist.
(spinnt nur weiter auf Wolke 7 rum mit UVP´s von annodunnemals; und RT brauchen wieviel % der Gamer)
 
Wahrscheinlich merken Manche nur die Bedeutung von aktuellen Preisen, wenn das Konto überzogen ist.
(spinnt nur weiter auf Wolke 7 rum mit UVP´s von annodunnemals; und RT brauchen wieviel % der Gamer)
Wahrscheinlich geht es manchen aber gut genug um sich eine 4090 leisten zu können, siehe den passenden Thread dazu. Gibt ja einige hier im Forum die sich eine geholt haben.

Und RT Leistung brauchen die Leute die alle Regler nach rechts schieben wollen.
 
Das Du evtl. wie die 4090-0,01% denkst, darfste gerne, aber der kleine Rest-99,99% hat andere Probleme.

Das dann die 0,01% den Anderen Alles vorschreiben wollen, geht aber gar net.
 
Zurück