News Geforce RTX 5090 eine doppelte Geforce RTX 5080 [Gerücht]

Was genau zockst Du in VR? Meine Vive Pro staubt meist vor sich hin, ich hab grad wieder mit Fallout 4 angefangen, aber das fordert die HW kaum.

Sonst finde ich nichts, was mich wirklich reizt... :(
Schließe mich der Frage an was in VR soviel Leistung frisst. HL Alyx fand ich selbst schon mit meiner 3090 schnell genug, und sonst sind die VR Games die ich zocke alle keine HW Fresser weil die ja alle hohe FPS auch auf schwächerer HW erreichen müssen um in VR richtig zu funktionieren.
 
Schließe mich der Frage an was in VR soviel Leistung frisst. HL Alyx fand ich selbst schon mit meiner 3090 schnell genug, und sonst sind die VR Games die ich zocke alle keine HW Fresser weil die ja alle hohe FPS auch auf schwächerer HW erreichen müssen um in VR richtig zu funktionieren.

VR ist halt ein Nischenprodukt und wird es auch immer bleiben. Keine gute Investition die du da getätigt hast.
 
Viel schlimmer finde ich die 5070 mit nur 12GB und 192Bit....in ~2025 nicht mehr zeitgemäß finde ich.
Hängt am Preis, wenn die nur 550€ kostet hat die ihre Abnehmer... 1440p mit so viel RT wie möglich (Nicht das man das so sehen muss!), aber ja auch da ist es sehr mager.

Aber wenn man für 1400€ eine 5080 kauft, finde ich wiegen die 16GB noch schwerer negativ nach.
Vor allen Dingen wird die 70er mit Sicherheit ja auch wieder teurer (Schätzung meinerseits ~800€) :stick: .
Kann ich mir beim besten Willen nicht vorstellen.

Meine eine 4070ti mit 12GB gibt es doch schon ab 650€ rund und die wird noch weiter fallen.

Dunkel sieht es für die 5070ti aus meine ich.

Eigentlich etwas mehr als 4080s Leistung und Preis, glatte 1000€, oder gar noch etwas mehr.

Hier könnten neue Karten zum Markt kommen, ohne die Preise der alten Karten zu drücken. Also im Bereich ab 4070ti super aufwärts .
 
VR ist halt ein Nischenprodukt und wird es auch immer bleiben. Keine gute Investition die du da getätigt hast.
Das kann jeder sehen wie er will. Für mich persönlich hat allein schon HL Alyx das Teil gerechtfertigt. Den Flight Simulator in VR zu spielen ist auch ein tolles Erlebnis, während viele Mädels mit Beat Saber ihren Spaß haben. Also das Teil hat schon was und das Potenzial ist nach wie vor immens.
 
Schließe mich der Frage an was in VR soviel Leistung frisst. HL Alyx fand ich selbst schon mit meiner 3090 schnell genug, und sonst sind die VR Games die ich zocke alle keine HW Fresser weil die ja alle hohe FPS auch auf schwächerer HW erreichen müssen um in VR richtig zu funktionieren.
DCS, als Beispiel.
VR ist halt ein Nischenprodukt und wird es auch immer bleiben. Keine gute Investition die du da getätigt hast.
Dann setze dich mal in das virtuelle Cockpit einer F18, F14 oder was auch immer und erzähl das nochmal. ;) Das ist immersion, das ist wahnsinn sofern die Hardware potent genug ist.
 
Von mir aus auch dann "nur" ~700€ was so noch immer viel zu teuer ist. Ja ~1000€ für eine kolportierte 5070 TI würden diesbezüglich passen :ugly:.
Naja sollte es tatsächlich so kommen ist es das erste mal das ich 2 Gens überspringe.
 
Nirgendswo steht, dass die 5090 der Vollausbau dieses Chips sein wird. Ihr Chip hat zwar doppelt soviele Recheneinheiten, was aber nicht heißt, dass alle aktiviert sein müssen.
Oder habe ich das überlesen?
 
Die Gerüchte geben die Recheneinheiten ja an. Ob der Chip physisch noch mehr Einheiten hat, die dann deaktiviert sind, weiß natürlich keiner - genauso wenig wie man wissen kann, ob die Gerüchte stimmen oder nicht.
 
Wird ein anderer Hersteller schnellere Hardware auf den Markt werfen?
Wo ist also das Problem, man muss ja nicht kaufen.

Bei den Gerüchten zur 5090 interessiert mich wenn die 5090 32GB bekommt und die 5080 eine halbe 5090 sein soll, will Nvidia wirklich nochmal eine xx80 mit 16GB verkaufen...
Da war kein NV Diss drinne versteckt. Bei NV muss man aber auf die Bezeichnungen der Chip schauen.

Wir haben - laut Gerüchten:

GB202
GB203
GB205
GB206
GB207

Es fällt auf, dass der "klassische 04 Chip" fehlt.

Weiterhin sehen wir, dass der GB202 wohl ein ziemliches Monster ist.

Ich würde daher vermuten dass die Zuordnung der Chips zu den Produkten sich ändert:

5090 - GB202 (10-20% deaktiviert 28-32GB)
5080 - GB202 (25-40% deaktviert 20-24 GB)
5070ti - GB203 (Vollausbau - 10% deaktiviert 16-24GB)
5070 - GB203 (10-20% deaktiviert 12-20GB) oder GB205 (Vollausbau 12-16GB)
5060 ti - GB 205 Vollausbau 8/12/16GB - oder gar nicht am Markt
5060 - GB205 teildeaktviert 8/10/12/16GB
5050 ti - GB206 Vollausbau 6/9/12GB
5050 - GB206 teildeaktviert 6/9GB

Wobei man bei den Speichergrößen immer bedenken muss, dass Micron 3GByte GDDR7 fertigen will, so dass ggf. ich dies ungerade Summe mal auch angesetzt habe mehr möglich sind.
 
Ja? Ist der GPU limitiert? Der Flight Sim von MS ist ja hart im CPU Limit.
Eigentlich nicht mehr so, die haben die Engine überarbeitet. Ich hatte da nie Probleme.
Aber GPU Limit!
Mal sehen welches Killerfeature Nvidia wieder mit der 5000er Reihe bringt. Eine 4090 hat immerhin genügend VRAM.
Was denn, zwei Zwischenbilder ;).
Ich nutze FG sogar (sogar in einem Onlineshooter, Gray zone), aber auf zwei Zwischenbilder muss ich nicht unbedingt gehen.
Wenn die Energieeffizienz, Raytracingleistung, FSR sowie die weiteren Softwarefeatures die ich brauche (Broadcast Hintergrund entfernen) endlich mal aufholen, wäre es eine Option für mich.
Angeblich lässt man RDNA4 ziemlich verkümmern um schom unter hochdruck an RDNA5 zu arbeiten, weiterhin wird gemutmaßt das RDNA zum RTX5000 Refresh kommen soll und dann Konkurrenz liefert.
Da war kein NV Diss drinne versteckt. Bei NV muss man aber auf die Bezeichnungen der Chip schauen.
Und nu, wer hat das denn behauptet?

Ich habe nur gefragt
"
Wird ein anderer Hersteller schnellere Hardware auf den Markt werfen?
Wo ist also das Problem, man muss ja nicht kaufen."
Wir haben - laut Gerüchten:

GB202
GB203
GB205
GB206
GB207

Es fällt auf, dass der "klassische 04 Chip" fehlt.

Weiterhin sehen wir, dass der GB202 wohl ein ziemliches Monster ist.

Ich würde daher vermuten dass die Zuordnung der Chips zu den Produkten sich ändert:

5090 - GB202 (10-20% deaktiviert 28-32GB)
5080 - GB202 (25-40% deaktviert 20-24 GB)
Ich hoffe das du hier Recht behalten wirst.
5070ti - GB203 (Vollausbau - 10% deaktiviert 16-24GB)
5070 - GB203 (10-20% deaktiviert 12-20GB) oder GB205 (Vollausbau 12-16GB)
5060 ti - GB 205 Vollausbau 8/12/16GB - oder gar nicht am Markt
5060 - GB205 teildeaktviert 8/10/12/16GB
5050 ti - GB206 Vollausbau 6/9/12GB
5050 - GB206 teildeaktviert 6/9GB

Wobei man bei den Speichergrößen immer bedenken muss, dass Micron 3GByte GDDR7 fertigen will, so dass ggf. ich dies ungerade Summe mal auch angesetzt habe mehr möglich sind.
Alles gut möglich, ich hoffe auf baldige Ankündigungen ;)
 
Zuletzt bearbeitet:
Was genau zockst Du in VR? Meine Vive Pro staubt meist vor sich hin, ich hab grad wieder mit Fallout 4 angefangen, aber das fordert die HW kaum.

Sonst finde ich nichts, was mich wirklich reizt... :(
Puh, wo fange ich an wo höre ich auf?

Grundsätzlich bin ich vor allem SimRacer, also läuft sehr viel iRacing und ACC, und da ich seit gestern meinen Beta-Zugang habe, bald auch Rennsport.

Für Roomscale nutze ich meine Varjo XR-4 und da ist es in guter Regelmäßigkeit Pavlov , Into the Radius, After the Fall, Arizon Sunhine 2, Alyx, modded Skyrim, Contractors, Until you Fall, The Walking Dead, Phasmophobia, Ghosts of Tabor, Onward etc.

Mit meiner AVP über ALVR habe ich mich in den letzten Wochen total in UEVR reingesteigert und genieße es, die großen UE Titel zum Teil fast nativ mit gamepad zu zocken.

Also Mangel an Content habe ich überhaupt nicht, sondern tatsächlich schreit mein Rig spätestens mit den deutlich erhöhten Auflösungen der XR-4 und AVP nach einem GPU-Upgrade.
 
@PCGH_Sven

"Blöde" Frage : Verläuft die Anzahl der Shader Einheiten nicht Binär wie beim RAM ?
4096 , 8192 ect. etct. ...
Weil "genau" das Doppelte der SE von 5080 auf 5090 sind es in der Grafik/Tabelle (Anhang) ja auch nicht ?!? :ka:
Danke für den Hinweis.

Beim GB202 hatte sich ein Zahlendreher bei den Shader-Einheiten eingeschlichen und darauf basierend, waren die anderen Werte nicht korrekt. Ist jetzt korrigiert:

GB202: 24.576 Shader-Einheiten
GB203: 12.288 Shader-Einheiten
GB205: 8.192 Shadereinheiten
GB206: 6.144 Shadereinheiten
GB207: 4.096 Shadereinheiten

Danke dir für deine Unterstützung.

Liebe Grüße
Sven
 
Solange es 100%ig läuft, mind 60% schneller als eine 4090 ist und keine Probleme macht, ist es mir egal aus was die GPU besteht.

Mit 12288 könnte ein GB203 so schnell wie die 4090 sein, ausgehend von der 4080. Die 4090 hat zwar 16k Shader, aber scheint irgendwo ein Bottleneck zu haben.
Wenn die 5090 nun 2x GB203 hat, wären das fast doppelte 4090 Leistung.
Aber 600W will ich nun echt nicht reinballern, vorallem sagt ein anderes Gerücht nur 2 Slots für den FE Kühler.

Sagen wir aber, das man den Fortschritt in der Transistorgröße z.b. nicht in Leistung, sondern komplett in Effizienz gesteckt hat. Das könnte bei gleicher Leistung ~30% weniger Energie bedeuten. Die Leistungssteigerung kommt dann durch einen größeren Chip und den schnelleren VRAM.
Wären also nur noch rund 400W für die Karte. Eine optimierte 4080 muss ja auch keine 320W ziehen, sondern kann weniger. Also <350W für die 5090 wären durchaus möglich. :D

Ich halte von den Gerüchten nicht so viel, weil diese teilweise widersprüchig sind...
Wenn es sich schematisch tatsächlich um zwei GB203 handelt, die über einen eigenen Interconnect Layer verbunden sind, dann hat das auch die Nachteile einer solchen Lösung. Es ist eben nicht nur alles doppelt, sondern es sind dann zwei getrennte Bausteine, jeder mit 256Bits an den Speicher angebunden (und nicht einer mit 512 Bit), jeder mit eigenem Cache usw., und nur über eine - wenn auch schnelle - Sst miteinander verbunden.
Das wäre der Fall bei SLI, aber die Lösung von Nvidia ist kein SLI.
Apple macht es genauso mit dem Ultra Chip.

Egal was kommt, würde mich freuen, wenn Nvidia die Karte in Computex anteast.
 
Zuletzt bearbeitet:
Wirkt ja so, das man wieder n großes loch zur 5080 machen möchte, das die 5090 wieder gefühlt die Karte ist, zu der man nur greifen möchte😅

Aber mal abwarten😀
 
Es wäre schön, wenn man zukünftige GPUs einfach mit der Stichsäge in der Mitte cutten könnte und sie trotzdem noch funktionieren.
 
Glaube ich alles noch nicht so wirklich zu der so viel höheren Leistungssteigerung.

Erst wenn offizielle Statements von Nvidia kommen schon eher und erst so richtig, wenn handfeste Tests und Benchmarks verfügbar sind!
 
Zurück