News Geforce RTX 5090 und RTX 5080: Gerüchte deuten auf eine riesige Leistungslücke hin

Ich hab so das Gefühl du bist der einzige hier, der die ganzen technischen Spekulationen hier immer persönlich nehmen will und irgendwas von bösen oder guten Firmen konstruiert.
Ich wundere mich lediglich über den gewohnt äußert negativen Touch den viele Beiträge haben, wenn es um Nvidia geht, insbesondere deinen Beitrag, der soweit geht beschnittene Nvidia Karten mit "Müll" zu assoziieren, weil sie angeblich ihren Top Chip ganz stark kastrieren sollen, was sie aber bisher noch nie getan haben.

Das sind allerhöchstens Spekulationen, ganz bestimmt keine Dinge "allerdings mit an Sicherheit grenzender Wahrscheinlichkeit" eintreffen werden. Einmal davon abgesehen, dass deine Überlegung den "Restabfall" dann als GeForce zu vermarkten nicht funktioniert, da der Prozess im Laufe der Zeit so gut wird, dass ständig fehlerfreies Silizium beschnitten und weggeworfen wird. Zudem sind beschnittenen Karten nicht immer "teildefekt".
Aus den gleichen Gründen gibts übrigens auch keine RTX4090Ti oder Titan.
Weil 10% mehr ALUs weniger den Braten nicht fett machen und der Performancegewinn minimal wäre.
Bei 25%, wie du es spekulierst, wäre das aber deutlich anders. Selbst die 4090D hat nur 19,5% weniger ALUs.
Du schreibst grade als würde ich gefühlt nen Krieg gegen Nvidia oder dich oder beide keine Ahnung anzetteln wollen dabei mache ich nix außer meine Ansicht plus Begründung hier reinzutippen.
Ja, und ich tippe meine Ansicht hier auch hinein. Und ich wundere mich über den negativen Tenor.
Nvidia bringt wenigstens eine High End Karte, bei AMD soll das nach Gerüchten nicht so sein.
 
Bei 25%, wie du es spekulierst, wäre das aber deutlich anders. Selbst die 4090D hat nur 19,5% weniger ALUs.
Sowas in der Richtung erwarte ich schon, also 20-25% cut. Wenn nötig (falls AMD doch was bringt in der Region oder der KI Markt warum auch immer zusammenklappt) kann man ja leicht eine 5090Ti nachschieben die dann 176 SM hat (um den vollaktiven weiter im HPC Segment zu lassen).
 
Könnte auch sein dass Nvidia die 5080 wieder mit dem großen Chip baut. Das war bei Ampere der Fall, bei Turing und Ada nicht, vielleicht bei Blackwell wieder.
Aus welchem Grund würden Nvidia das tun? Damals bei Ampere, hatte AMD bei RDNA 2 einen Fertigungsvorteil gegenüber Nvidia und Nvidia gleichzeitig Probleme mit ihrer Fertigung bei Samsung. Das erklärt das Design der 3080 sehr gut. Bei der nächsten Generation ist nach aktuellem Stand nicht davon auszugehen, dass AMD die Leistung von RDNA 2 verdoppelt, was aber nötig wäre um Nvidia im High End Konkurrenz zu machen. Von daher halte ich es unwahrscheinlich, dass Nvidia einen 102er Chip bei einer 80er non-Ti einsetzt.

Edit:
Und es wäre extrem ungeschickt, eine solch große Lücke zu lassen. Wenn die 5090 auch preislich einen solchen Abstand zur 5080 hätte, wie es die Leistungsdaten vom GB202 und GB203 suggerieren, dann würde NVidia schlicht Geld verschenken.
Warum? Vergleich das mal mit dem Preis-/Leistungsgefüge bei den aktuellen Karten.
 
Zuletzt bearbeitet:
Und sofern Nvidia nicht die Struktur der SM umbaut, kann man aus den 30 % mehr SM dann ca. 15 % herausziehen. Zusammen mit der Steigerung des Taktes wäre man dann bei ca. 25 - 30 % mehr Leistung.
Könnte durchaus mehr drin sein. Könnte aber auch die Sternstunde von Techniken wie SER sein, das dürfte bei so einem Monster-Chip sicher in v2 kommen, damit man eben die Power auch auf die Strasse kriegt.

So oder so wäre mir das egal, ich kann die Karte voll auslasten in ML/DL Szenarien, Rendering und evtl. dem ein oder anderen Hardcore-RT Game. Dass sie dann mit 30% läuft in den anderen Games und dennoch jenseits der 120Hz drückt bei angenehmen Verbrauchswerten wäre dann ja fast schon Bonus. :D

Wer nur zocken will, für den ist eine 4090 auch schon Overkill. Muss aber jeder selbst wissen.
 
SER wurde erst vor Kurzem für alle rtx gpu freigeschaltet das nennt sich ray reconstruction und da ist je mehr L2 desto besser. ray reconstruction bringt auf älteren dxr gpu kaum bis nix. maximal 2% bei rtx40 bis zu 10%.
Das es aber zu dlss3 gekoppelt ist verschleiert das was und kann aktuell auch nur in bestimmten spielen angewendet werden.
 
Edit:Warum? Vergleich das mal mit dem Preis-/Leistungsgefüge bei den aktuellen Karten.
Weil es einen Kundenkreis gibt, der eben in diesem Bereich dazwischen seinen Sweetspot hat. Es macht keinen Sinn einen potentiellen Markt zu vernachlässigen.

Es ist nicht so, dass man den größten Gewinn macht, wenn man sein Produkt möglichst teuer verkauft.

Der Gewinn ist immer noch Marge x Stückzahl. Und wenn die Stückzahl zu klein wird, hat man das Nachsehen. Deswegen ist es besser, für jeden Geldbeutel und für jeden Zielmarkt ein Produkt zu haben.

Business 1x1
 
Weil es einen Kundenkreis gibt, der eben in diesem Bereich dazwischen seinen Sweetspot hat. Es macht keinen Sinn einen potentiellen Markt zu vernachlässigen.

Es ist nicht so, dass man den größten Gewinn macht, wenn man sein Produkt möglichst teuer verkauft.

Der Gewinn ist immer noch Marge x Stückzahl. Und wenn die Stückzahl zu klein wird, hat man das Nachsehen. Deswegen ist es besser, für jeden Geldbeutel und für jeden Zielmarkt ein Produkt zu haben.

Business 1x1
Wieso ich kann mir sehr gut eine RTX5080 für 1299€ vorstellen, die eine 4090 überholt aber nur 16GB hat.
Dazu passend, eine 5090 mit 32GB und 50% mehr Leistung gegenüber der 5080 für 2299€.

Die 5080 wird schon alles knacken was AMD die nächste Gen vorstellen kann (vermutlich) und suggeriert ein gutes Geschäfft zu sein.

Für alles die bisher 1500€ und mehr ausgegeben haben, denke ich das ein recht großer Teil auch bereit sein wird für einen so großen Leistungssprung auch 2299€ zu bezahlen. Alle anderen werden dann gerne auch zur 5080 greifen.

Die werden deswegen nicht zu einem Produkt mit schlechteren Eigenschaften greifen.


Das mit Preis mal Stückzahl ist ja gut, aber das sind halt zwei Komponenten. Wenn der Preis passt, braucht es nicht so hohe Stückzahlen. Ich denke das hat die aktuelle Generation doch deutlich gezeigt.

Außerdem können wir uns bei einem ziemlich sicher sein. AMD und Nvidia werden schon ganz genau analysiert haben, mit welchen Preisen die an uns am meisten verdienen.
 
SER wurde erst vor Kurzem für alle rtx gpu freigeschaltet das nennt sich ray reconstruction und da ist je mehr L2 desto besser. ray reconstruction bringt auf älteren dxr gpu kaum bis nix. maximal 2% bei rtx40 bis zu 10%.
Das es aber zu dlss3 gekoppelt ist verschleiert das was und kann aktuell auch nur in bestimmten spielen angewendet werden.

Ray Reconstruction ist nicht gleich SER. Und SER gibt es nur auf Ada. Ray Reconstruction wurde für alle RTX GPUs aktiviert. Da merkt man mal was für Unfug Du so von Dir gibst...

Ray Reconstruction = neue, KI-trainierte, Denoiser
SER = Shader Execution Reordering -> kann man sich als Task-Scheduler für Shader vorstellen

https://blogs.nvidia.com/blog/dlss-omniverse-cinema-4d-halloween/
Ray Reconstruction — enhances ray-traced image quality on GeForce RTX GPUs by replacing hand-tuned denoisers with an NVIDIA supercomputer-trained AI network that generates higher-quality pixels in between sampled rays.

https://developer.nvidia.com/rtx/pa...eduling,performance from path tracing shaders.
SER is a new scheduling system that reorders shading work on-the-fly for better execution efficiency. It is useful on ray traced workloads, as it achieves maximum parallelism and performance from path tracing shaders.

Weil es einen Kundenkreis gibt, der eben in diesem Bereich dazwischen seinen Sweetspot hat. Es macht keinen Sinn einen potentiellen Markt zu vernachlässigen.

Es ist nicht so, dass man den größten Gewinn macht, wenn man sein Produkt möglichst teuer verkauft.

Der Gewinn ist immer noch Marge x Stückzahl. Und wenn die Stückzahl zu klein wird, hat man das Nachsehen. Deswegen ist es besser, für jeden Geldbeutel und für jeden Zielmarkt ein Produkt zu haben.

Business 1x1

Zum Business 1x1 gehört aber auch das HALO-Produkt. Die Krone aufzuhaben bringt Umsatz.
 
Und wie soll das gehen mit ser wenn ada und ampere auf gleiche Takt und rt core menge gleich schnell sind.
Dxr ist raster mit strahlen quasi linear da ist nix out of order
 
Nvidia hat überhaupt keine Notwendigkeit einen Vollausbau in der 5090 zu verkaufen, deshalb werden sie es auch nicht tun.
Da fallen sicher gute 20% weg.
Der Preis wird natürlich trotzdem so sein, als hätten sie nichts weggeschnitten... und dann noch ein paar Dutzend Prozente oben drauf.
Aber, ich sehe das so das Nvidia hier ja ein entsprechenden Preis dran schreiben möchte und dazu gehört auch eine entsprechende Mehrleistung. Sonst fehlen die Käufer für die XX90 Karten.

Es wird leider auch genug Lachnummern geben die 2500€ für eine Grafikkarte als Heimanwender kaufen. Denen ist der Markt ja egal, sie wollen einfach nur das Schnellste.
 
Es wird leider auch genug Lachnummern geben die 2500€ für eine Grafikkarte als Heimanwender kaufen. Denen ist der Markt ja egal, sie wollen einfach nur das Schnellste.
Genau wie die Lachnummern, die sich teure Uhren, teure Autos oder teure Klamotten kaufen, gell?

Die Lachnummer ist immer der andere, speziell dann, wenn man ihn dem eigenem Selbstbild wegens runtermachen muss.

P.S.: Ich geb lieber viel Geld für meine GraKa aus, denn davon hab ich was - die teure Uhr dient nur zum Angeben und das ist es mir nicht wert.
 
Und wie soll das gehen mit ser wenn ada und ampere auf gleiche Takt und rt core menge gleich schnell sind.
Dxr ist raster mit strahlen quasi linear da ist nix out of order

Ich habe Dich widerlegt und Quellen geliefert. Aus dem Whitepaper:

Shader Execution Reordering (SER) is a new scheduling technology introduced with the AdaLovelace generation of NVIDIA GPUs. It is highly effective at simultaneously reducing bothexecution divergence and data divergence. SER achieves this by on-the-fly reordering threadsacross the GPU such that groups of threads perform similar work and therefore use GPUresources more efficiently. This happens with minimal overhead: the Ada hardware architecturewas designed with SER in mind and includes optimizations to the SM and memory systemspecifically targeted at efficient thread reordering. Using SER, we observe speedups of up to 2x inraytracing regimes of real-world applications, achieved with only a small amount of developereffort. To applications, SER is exposed through a small API that gives developers new flexibilityand full control over where in their shaders reordering will happen. This API is detailed in thefollowing sections.

SER wird nicht automatisch eingesetzt, das muss integriert werden (siehe API im Whitepaper). Glaube bisher nur in CP2077 und Portal RTX.

Mit der Uhr kannst du zumindest angeben, aber deine Graka ist im Case und da schaut keiner außer dir rein.

Du bist echt ein bisschen lustig. Als Signatur "LIEBER TOT ALS ZWEITER" aber dann nur die zweitschnellste GPU am Markt im PC. Ups, man scheint die Grafikkarte ja doch "zu sehen". :schief:
 
Auch Gerüchte. AMD kann 2025 einen High End Chip nachschieben.
Ich lass mich gerne überraschen, aber ich sehe AMD da eher im Bereich ihrer Enterprise Karten tätig und für Consumer gibt es andere Prioritäten als der 5090 nachzujagen.

Nvidia hat noch nie zurückgezogen.
Die werden sich einfach ansehen welche Chipflächen der TSMC Prozess erlaubt unter wirtschaftlich günstigen Bedingungen herzustellen und dann danach gehen.
 
Die Gerüchte machen schon sinn die Top Karte, die 5090 wird erst mal nichts schlagen können und da Nvidia sehr gut informiert ist über AMD, die laut einigen Gerüchten nur eine Obermittelklasse Karte veröffentlichen werden mit Fokus auf besseres RT und effizient reicht schon eine 5080 aus, um den Markt weiterhin zu dominieren.
Die Geforce RTX 5090 wird sicherlich 2500 Euro kosten, aber dafür gibt es ja noch die 5080, diese wird die interessanteste von beiden sein und sicherlich bezahlbar bleiben.
Ich verstehe die meisten Leute hier nicht, ihr kritisiert als Nvidia für die zu hohen Preise ihr vergisst, aber das AMD einfach kein Konkurrenzprodukt hat, um den entgegenzuwirken und das ist auch der Grund für die zu hohen Preise
 
Nvidia hat überhaupt keine Notwendigkeit einen Vollausbau in der 5090 zu verkaufen, deshalb werden sie es auch nicht tun.
Da fallen sicher gute 20% weg.
Der Preis wird natürlich trotzdem so sein, als hätten sie nichts weggeschnitten... und dann noch ein paar Dutzend Prozente oben drauf.


Es wird leider auch genug Lachnummern geben die 2500€ für eine Grafikkarte als Heimanwender kaufen. Denen ist der Markt ja egal, sie wollen einfach nur das Schnellste.
Die Lachnummern finanzieren scheinbar auch deinen Lebensunterhalt.
Neider nerven.
 
Wieder beste Gesellschaft hier. Lasst mal den Lörres schön weit raushängen.
Alles Neider hier, Geringverdiener und Bürgergeldempfänger nicht vergessen. Man was ein Niveau. Immer dran denken: der Folgekredit für die nächste Karte wird nicht billiger von den Finanzierungskosten. :lol::lol::lol:

Is schon komisch das manche sich hier regelmäßig abmelden, dann wieder anmelden und weiter Stunk machen. Muss wohl am Klima liegen. Hier regnet es immer so schön Aufregerthemen.
 
... und da Nvidia sehr gut informiert ist über AMD, die laut einigen Gerüchten nur eine Obermittelklasse Karte veröffentlichen werden mit Fokus auf besseres RT und effizient reicht schon eine 5080 aus, um den Markt weiterhin zu dominieren. ...
Genau so wie die 4080 die 7900xtx dominiert hat?

Falls die 5080 kein Vollausbau ist, wird RDNA5 keine Probleme haben da ran zu kommen.(@Raster)
RDNA5 vllt. im Herbst 2025
die kleinere RDNA4 wirds vermutlich weiter parallel geben, und Die wird reichen um die 4070S als zu teuer
da stehen zu lassen. (wann mal konkurrenzfähige 5060Ti kommen, steht in den Sternen)

Ob man 2025 die 7900xt +XTX im Preis senkt, damit die 4070TiS im Abverkauf nicht funzt, wird man sehen.
(sehr wahrscheinlich, das es genauso wird wie bei den 6000ern)

Preiswerte 4080S wirds vermutlich 2025 nicht geben, ... die kann Jensen besser in seine GeforceNow-Server
packen, um Steuern zu sparen, beim hin+her schieben.
 
Zuletzt bearbeitet:
Zurück