News Geforce RTX 5090: Neue Gerüchte sprechen von 70 Prozent Mehrleistung zur Geforce RTX 4090

Der AD102 deiner 4090 kann nur 89% seiner Shader nutzen, so stark beschnitten und zugleich so teuer war noch nie ein Chip bei der Flaggschiffkarte. Deine Aussage mutet deshalb etwas merkwürdig an.

89% sind aber trotzdem erheblich mehr als die realistische Einschätzung in der NEWs von nur 18.432 (75%) der möglichen 24.576 Shader.

Dazu dann auch noch mal eventuell 20% mehr verlangen, für einen nochmals deutlich stärker beschneiten Chip.

Wenn die Karte mit 21.864 Shader kommt wäre ich bereit auch das zu zahlen - aber Preiserhöhung & höhere Einschnitte wohl eher nicht.
 
Evtl. 2.500 Takken? Ich sehe schon die ganzen 4090 hier im Forum gebraucht im Abverkauf :ugly:
Klar warum auch nicht
Wenn man seine alte Karte gut verkaufen kann dann kann man die neue Karte damit gut finanzieren.
So habs ichs bei der 4090 mittels 3090 gemacht und so werde ichs bei der 5090 ebenfalls handhaben also warum nicht
Wird es auch eine 5090 Noctua Edition geben ?
Wozu
Wenn dann bei der 70er und 80er
Bisher gab es keine 90er mit noctua Lüftern
Is auch derzeit auch gar nicht nötig
Und ich sehe Nieren im Abverkauf auf dem Darknet :D
Echt jetzt....
Last euch mal was besseres einfallen....
 
Und weiter dreht sich das Rondell der Melkmaschine :D
Auch wenn "PC" eines meiner Hobbys ist, bin ich bei solchen Preisen raus. Klar kann jeder machen/kaufen, was er/sie/es will. Aber Spaß am Rechner kann man auch mit "nur noch" einer 4070TiS oder XTX haben. Von daher kann ich so eine Entwicklung nicht ganz verstehen :ka:
Sehr, sehr schade.
Gruß T.
 
Vergessen sollte man auch nicht, das innerhalb dieses Jahres die neuen 4k OLEDs Monitore rauskommen, welche möglicherweise mehr Leute zu 4k treiben.
da würde ich behaupten, wer einen 1200€ Monitor kaufen kann, der kann auch eine 1200€ GPU kaufen. Das ist weiterhin nicht die Norm.


Btw DLSS Quality in 1440p ist effektiv auch nur 1080p , genauso ist DLSS Performance in 4k auch effektiv 1080p.
Aber es funktioniert halt. Ein Film schaut in den Actionszenen auch scharf aus, aber wehe man fängt an Pause zu drücken. Früher hat man in jpg Dateien auch noch viele Artefakte gesehen, wenn man die Qualität zu niedrig war, das kommt heute selten vor.


Nur wenn man die Benchmarks anschaut, dann erreicht z.b. keine Karte 120FPS in 1080p, außer der 4090 in Remnant2 oder LotF. Für 60FPS in 1080p braucht man schon eine 4070...
Ich hab Remnant 2 und Talos 2 auf einer 2080 gespielt in 3440x1440p. Das war grenzwertig, aber schon wenn ich das rüber auf den 1440p Monitor geworfen hatte, gab es da keine Probleme. Inzwischen hab ich eine 4080S, muss aber ehrlich sagen, dass es bei Remnant 2 nicht auf die extra Frames der 4080S ankommt und der visuelle Mehrwert sich in Grenzen hält. Daher ist es wichtig zu differenzieren zwischen der Menge Auflösung und GPU leistung die ich gebraucht hätte um zu sagen, das ist genug und dem Overkill mit dem ich mein System bewerfe.

Weil dass ein Spiel eine 4080S braucht, um von den Konsumenten als spielbar unterhaltsam betrachtet zu werden, das kann sich kein Publisher der Welt leisten. Wer sich das mit 4k@120Hz selbst auferlegt, der kann die Rechnung zahlen, der Rest der Welt stellt fest, dass PC Spiele zwischen 50-60 fps in 1080p und 1440p absolut abliefern.
 
Aber es funktioniert halt. Ein Film schaut in den Actionszenen auch scharf aus, aber wehe man fängt an Pause zu drücken. Früher hat man in jpg Dateien auch noch viele Artefakte gesehen, wenn man die Qualität zu niedrig war, das kommt heute selten vor.
Ich habe ja nicht gesagt das ich es nicht nutze. Ich nutze es immer, seit es auch deswegen um Strom zu sparen. XD
Aber wenn man DLSS heute braucht um die FPS zu erreichen, der wird in 3-4 Jahren zu wenig FPS bei den neuen Spielen haben. Wenn man es aber heute nicht braucht, kann es in ein paar Jahren der alternde Karte helfen die FPS zu halten. Deswegen sprach ich von nativer FPS.
da würde ich behaupten, wer einen 1200€ Monitor kaufen kann, der kann auch eine 1200€ GPU kaufen. Das ist weiterhin nicht die Norm.
Der Monitor kann auch ein Bottleneck im anderen Sinne sein. :D

Bin halt ne Grafikhure. XD
Aber ich spiele auch viele Indie-Titel, bei denen ich eigentlich keine 4090 brauche.
Dennoch kann selbst ein kleiner Titel wie Pacific Drive meine GPU zu 90% auslasten und das mit DLSS Performance!!! + 120FPS Limit.
 
Immer mehr Leistung die aktuell noch keiner braucht, selbst in der aktuellen Generation. Natürlich werden die Preise in einer solchen Situation hochgeschraubt. Merkt aber keiner.

Heftig performancekostende Luxusfeatures wie RT oder 4k Auflösung werden einfach als "zum spielen notwendig" angenommen, kein Wunder dass diejenigen die Preisentwicklung nicht verstehen.
 
Mal schauen wie die kleineren Karten bei Blackwell aussehen. Glaube wir werden da den gleichen "Sprung" wie von 3000 auf 4000 sehen. Also in einigen Fällen sogar eine Verschlechterung. Insbesondere wenn man bedenkt was Colette Kress (CFO Nvidia) gesagt hat und dass Nvidia sowieso alles verkaufen kann. Warum sollten sie sich dann Mühe geben bessere Karten zu designen wenn sich schlechte Karten (bei denen man deutlich sparen kann) so oder so verkaufen.

Egal wie hoch die Preise am Ende sind, ich kann mit 99% Wahrscheinlichkeit sagen, dass die üblichen Veredächtigen am Releasetag mit ihren Bestellungen aufkreuzen werden ;-)
 
Bis zu 70% wahrscheinlich und die auch nur wenn man DLSS3 gegen DLSS4 vergleicht, Pathtracing und irgendeine neue KI Funktion nutzt. Von den Daten her haben wir weder bei der Fertigung noch bei den vermutlichen technischen Daten des Chips überhaupt Potential um 70% im Durchschnitt zu erreichen, auch weil AD102 sich als sehr gelungener und runder Chip zeigt, der keine offensichtlichen Bottlenecks hat. Im Schnitt würde ich 25% erwarten.
 
Der Preis ist auch ziemlich egal, wenn man die GPU für mehr als Gaming benutzt und wenn man nur spielt, dann holt man sich keine 5090. Am Ende bekommt für die Grafikkarte Nvidia im Profi Segment ein Vielfaches für quasi die gleiche Karte, warum also noch günstiger anbieten?

50% mehr Leistung wäre zwar super, aber ich hoffe auf min. 32GB RAM, 48GB wären noch besser, allerdings glaube ich daran aus gleichem Grund nicht. Nvidia würde sich die Profikarten Preise so kaputt machen.
 
Ich möchte lieber eine 5060ti 16 gb für 450€ mit der leistung einer 4070ti aber weniger Stromverbrauch.

Wer brauch schon ne 5090 außer vielleicht 4k RT max Enthusiasten oder VR Spieler.
 
Ob sich das lohnt? Also die 5090 nicht zu kaufen, ein Jahr zu warten und dann die Ti holen, wenn ein weiteres Jahr später eine 6090 erscheint? Denke der Sprung von non-Ti auf Ti wird kleiner sein als von einer Ti old Gen auf non-Ti new Gen. Würde daher eher die 5090 zum Start kaufen.
Grundsätzlich ist es immer schlecht auf ein Ti-Modell zu warten, besonders trifft das für die 4070TI zu - aber besonders wiederum nicht bei der 4070 TI Super...

Das mit dem Lohnen - seh ich so,

Wenn ich mit meiner 3090 beschließe, zunächst nicht auf die 3090TI upzugraden - dann weder auf die 4080 oder 4090, dann steigt mit jeder übesprungenen Generation das was man als "ob sich das lohnt" - Gefühl bezeichnet.

Je nachdem wozu man die Grafikkarte verwendet, kommt noch die Frage hinzu, ob es genügent Beweggründe gibt, überhaupt eine neue Grafikkarte ins Auge zu fassen, denn wenn es zum Beispiel keine einziges neues Spiel gibt, das bahnbrechendes Path-Tracing anzubieten hat, dann würde man ja nachwievor eine Path-Tracing-fähige Grafikkarte nur für Cyberpunk 2077 brauchen.

Und wenn man das schon 5mal durch hat - auch mit Path-Tracing - aber vielleicht nur mit 48fps, dann brauche ich keine neue Grafikkarte, dass ich das gleiche Spiel dann mit 65fps und Path-Tracing ein 6.mal spielen könnte, oder mit 120fps per Frame Generation.

...von einer 3090 auf eine 4070TI Super umzusteigen, damit der Stromverbrauch sinkt, könnte man auch noch andenken, bringt aber auch nur Peanuts, falls überhaupt. Für einen neuen Zweit-PC- wär es (4070 TI Super) meine Top Grafikkarte zur Zeit.

Und ob eine 5090 lohnt, oder doch erst eine 5090Ti - hängt ganz von Nvidia ab, und ein bißchen davon, wieviele Spiele mit sehr guten Ray-Tracing neu erscheinen - und sehr gutes Raytracing ist nun mal Path-Tracing. Spiele mit unterdurchschnittlichen Ray Tracing gibt's genug, aber dafür lohnt sich eine 5090 gar nicht, die bereiten mit abgeschalteten RT fast den gleichen Spaß.

Ok, es gibt nun noch Alan Wake 2, das könnte aber furchtbare Quicktime-Events als Gameplay Mechanik drinnen haben, was ein sehr bedeutender Grund wäre, das Spiel grundsätzlich nicht zu mögen, außerdem gehen mir verk:ckte Schriftsteller-Figuren total auf die Nerven.

Meine naheliegendste Hoffnung auf einer bahnbrechenden Path Tracing-Erfahrung liegt beim Nachfolger von Senua's Sacrifice... (Hellblade II) und bei GTA VI - vielleicht, ich weiß es nicht - PS5-Tracing kann jedenfalls sicher nur lame ausschauen. - Kein Grund für eine 5090 und es kommt ja erst am St.-Nimmerleinstag fürn PC, da kauft man sich dann schon eine 6090.

Und ob 5090 oder doch nicht - hängt dann auch noch davon ab, ob der Chip auf der 5090 ein Beschnittender-Krüpel-Chip sein wird, oder man das Gefhühl hat eine vollwertige Sache zu bekommen.

Noch ist alles offen...
 
Wie viel Watt wird das Monster diesmal brauchen? 1500kw oder eigenen Atomreaktor?
Echt jetzt....
Schon wieder sowas
Last euch doch mal was besseres einfallen....

PS is auch nicht witzig...
Passt wenn dann derzeit zu amd
Da von nvidia derzeit wesentlich effizientere gpus kommen....

@Mylo na kommen wir mit der Realität und der Wahrheit nicht klar....
 
Zuletzt bearbeitet:
Seien wir mal realistisch. Von 3090 auf 4090 gab es 1,5 Gen Sprünge in der Fertigungstechnik. 8nm auf 5nm, der halbe Sprung ist 8nm auf 7nm gewesen.
Von der 3090 auf die 4090 sind es umdie 60-70% mehr Leistung.
Dabei sind es ~6000 Shader mehr, sowie umdie 500Mhz Takt und 1,5Gbps VRAM Tempo.
Ganz zu schweigen von dem Cache, was auch einiges mehr brachte.

Die 5090 soll 50% mehr Shader haben, 90% mehr Cache, 400-500Mhz mehr Takt, sowie >100% schnellerer VRAM (Durchsatz wegen 512bit, mit 384bit wären es ca 50%)?
Das klingt für mich locker nach 70%, wenn nicht gar noch mehr Leistung.

Man muss aber auch sagen, das die vielen Sahder der 4090 gefühlt in Spielen nicht soviel bringen, sonst wäre die Lücke zwischen der 4080 und 4090 höher. Das könnte aber z.b. am ZU langsamen VRAM liegen, was GDDR7 ja fixt...

Ich hoffe wie vorher gesagt daruf, das der Strombedarf nicht steigt... 450W mit UV unter 300W wie die 4090 würde ich mir schon wünschen.
 
Zurück