News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Sein Beispiel ist aber 40 FPS als Startwert, da macht sich der Input Lag UND die nicht flüssige Darstellung gleichsam bemerkbar. Ich meine Nvidia empfiehlt FG auch erst ab 60 FPS aufwärts oder sowas um den Dreh
Ich nutze FG in CP2077 mit 35FPS, aber ich nutze auch DLSS um diese vorher auf 60FPS zu puschen.
Mit FG und DLSSQ habe ich dann anstatt 35, 100FPS. Genauso habe ich auch Remnant 2 gespielt und es war super.
Aber das mit den <60FPS und besser kein FG stimmt schon.
Ich bin da aber nicht ganz so empfindlich.
 
Erst 2025 ein Nachfolger meine GPU ? oh das hat sich gelohnt schon zu Release zu kaufen - glaub so lange ist dann noch nie eine GPU bei mir im Einsatz gewesen ?

Kosten pro Monat Rechnung wird wohl 70€ sein bis zum Release der RTX 5090
 
Ich gehe bei dem kommendem Flagschiff, der RTX 5090 von einer Leistungssteigerung von 50 bis 70%, gegenüber der 4090, bei gleichen Verbrauch aus. Das wäre für mich schon ganz ordentlich. Die Doppelte, oder gar 2,5 fache Leistung wird die 5090 mit Sicherheit nicht haben.
Aber warten wir es ab. Das ist alles noch viel zu früh, um wirkliche Prognosen anzustellen.
Die kommende 5080, hat dann eventuell die Leistung der jetzigen 4090, nur eben mit 16 Gb.
 
Der Preis verkleinert den technologischen Vorsprung nicht
Den hat NV sicher was am Ende aber letztendlich egal ist. Eine rx7900xt ist in allen Gebieten inkl. Raytracing schneller als z.B. die Rtx4070. Jetzt könnte ich überspitzt sagen, hieße die rx7900xt dafür rx7800xt und würde 650€ kosten wäre AMD die Nr.1. Rx7800xt auf rx7700xt umlabeln und 450€ verlangen und NV GPU's werden zu Blei im Regal. Amd hätte dabei sicher noch einen positive Gewinn Marge und wir Gamer bekämen nach dem Jahren des Preiswuchers mal vernünftige P/L Karten.
So werden wir wieder ausgebeutet.
 
Ich gehe bei dem kommendem Flagschiff, der RTX 5090 von einer Leistungssteigerung von 50 bis 70%, gegenüber der 4090, bei gleichen Verbrauch aus. Das wäre für mich schon ganz ordentlich. Die Doppelte, oder gar 2,5 fache Leistung wird die 5090 mit Sicherheit nicht haben.
Aber warten wir es ab. Das ist alles noch viel zu früh, um wirkliche Prognosen anzustellen.
Die kommende 5080, hat dann eventuell die Leistung der jetzigen 4090, nur eben mit 16 Gb.


Keine Sorge die RTX 5080 wir die RTX 4090 schon schlagen - so wie die 4080 jetzt die 3090Ti ohne Probleme hinter sich lässt,

Die 5070Ti ist dann gleich schnell + DDR7 16GB & 128Bit Speicheranbindung. ?

Doppelt so schneller Speicher = halbe Bandbreite bei Nvidia
 
Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU
...
Bin ja mal gespannt, wann Intel NVidia dann auch vorhält, dass es nur "zusammengeklebter Müll" sei.

usw. ...

Zu meinem persönlichen Glück wird aktuell (gefühlt) deutlich weniger zwischen den Konkurrenten gelästert; aber ist nur so vom Gefühl her.
 
Als NVIDIA Verantwortlicher, würde ich die 5090 bei 2799€ UVP ansetzen! Die Grenze dessen, was die Leute bereit sind zu bezahlen, ist noch lange nicht erreicht! Die Verkäufe der 4090 zeigen es ja!
Man muss die 5070 Ti und alles darunter wieder nur schlecht genug machen, dann klappt das schon!
Da kann man sich nur noch an den Kopf fassen! Und aufpassen NVIDIA, nur nicht zu viel VRAM einplanen!
 
Frag mich wie sich das auswirkt mit den interface die xy70iger haben immer ne 192 bit anbindung gehabt. Wenn das auch so ist kann man die leistung ja ehe relativ auf grund der daten vergessen.

Mal schauen was dabei rum kommt.
 
Das nVidia Pferd springt nur so hoch wie es muss. Das heißt MCM wird noch nicht benötigt. AMD und Intel liegen volle ein bis zwei Generationen zurück, da kann sich nV die Kohle für MCM in 3nm sparen.
Chiplets senken die Produktionskosten, allein schon deshalb wird NVIDIA an Chiplets forschen.
Früher oder später wird NVIDIA auch die Chiplets-Technologie brauchen, es sind also keine gesparten Entwicklungskosten damit zu warten bis man sie braucht. Im Gegenteil, wenn sie mit der Entwicklung warten bis sie sie brauchen, geraten sie unter Druck und dabei können Fehler entstehen.
Es ist daher Sinnvoll bereits vorher Chiplets zu entwickeln und auch praktische Erfahrungen damit zu sammeln, gerade dann wenn man einen Vorsprung bei der Leistung ggü. der Konkurrenz hat. Dann kann man nämlich auch noch konkurrenzfähige Ware auf den Markt bringen, wenn man keine Bestleistung abliefern konnte.
Da bin ich echt gespannt. Weil sagen wir mal Blackwell kann dann FG+ also mit 2 Zwischen Bildern:
also Render bild FG bild FG Bild Render Bild.
Dann stelle ich mir die Frage wie fühlt sich das an ? Wie hoch ist die Latenz, wie sieht das aus?
Ich meine FG hat ja jetzt schon Problem hier und da.

Ich sags mal so du kannst nur eine Bestimmte Anzahl an Bilder berechnen ohne nicht die komplette Render pimpline durchzugehen, denn irgendwann muss ich den Input des Spieler wieder mit berechnen . (ich hoffe man versteht was ich meine).

Natürlich wäre es Super wenn wir mit nur einen teil der Rechnen Leistung der 4090 das Selbe Ergebnis erzielen können was Optik und Latenz angeht.
Solange die Generierung zusätzlicher Bilder schnell genug abläuft, kann man da durchaus mehrere Zwischenbilder dazwischen setzen ohne das es zu einem weiteren erhöhen der Latenz kommt.

Es muss eine Erkennung her, die die Zwischenbildberechnung abschaltet bzw. die Anzahl der generierten Bilder beschränken kann. Und zwar abhängig davon, wie schnell die CPU die nächsten Renderanweisungen liefern kann.
Das es eine solche noch nicht gibt, kann man an Diablo 4 - iirc war es D4 - sehen, dort kann es vorkommen dass das aktivieren von Frame Generation zu einem FPS-Verlust führt, weil die CPU zu schnell weitere FPS liefert - abhängig vom verwendeten System und Einstellungen.

Bekanntlich wird 1 Frame zurückgehalten um ein Zwischenbild zu generieren. Wenn die Generierung schnell genug abläuft um da 2, 3, 4 oder noch mehr Zwischenbilder zu generieren bevor von der CPU die Anweisungen für den nächsten Frame kommt und dieser von der GPU gerendert wurde, wird dadurch die Latenz nicht weiter erhöht.
Wenn nun eine Erkennung vorhanden ist, die bspw. nach 2 Zwischenbilder die Generierung abbricht, weil nicht mehr genug Zeit für ein drittes ist, dann bemerkt man davon nichts - außer eben das die FPS durch einschalten für "Frame Generation 2" nicht so hoch ausfällt wie möglich.

Das erscheint mir jedenfalls sogar Grund genug für NVIDIA zu sein, "Frame Generation 2" auf eine kommende GPU-Generation zu limitieren. Wenn nur diese genug Leistung liefert um mehr als 1 Zwischenbild zu generieren.
 
Nvidia steht von Seiten AMD´s nicht unter Druck. Das läuft genauso, wie damals bei den Intel CPU´s als AMD nicht hinterherkam.

Das ist so nicht richtig, Nvidia steht unter keinem Leistungsdruck aktuell es könnte sich allerdings ein Kostendruck für Nvidia ergeben, wenn AMD bei der 2. Iteration ihrer MCM-GPUs einen deutlicheren Kostenvorteil erzielt.
Daher ist hier die Frage setzt Nvidia wirklich auf ein MCM Design und wenn ja, wie setzen sie es um?
Weil eins ist klar, Monolithen herstellen können alle Hersteller, nur werden diese immer größer und teurer und dem steuert man mit MCM-Designs entgegen, um dadurch die HSK zu drücken und die Marge zu sichern, denn eins ist sicher die Preise werden sich nicht beliebig nach oben schieben lassen. Irgendwo kommt der Punkt an dem es den Leuten zu teuer wird und durch MCM-Designs hat man hier die Möglichkeit günstiger zu produzieren und wenn es klappt (so wie im CPU oder professionellen GPU Bereich) die Leistung auch gut zu skalieren.

Und der erste der dies von den dreien richtig gut hinbekommt, hat einen immensen Vorteil.
 
Könnte ein Weg aus der nicht enden wollenden Preisspirale bei Nvidia sein. Ein Chipletdesign ist zwar teuer, die Yield/der kleinere Chip am Ende könnte sich aber positiv auf die Kosten auswirken so dass man bei Nvidia vllt. wieder umschwenkt und attraktivere Preise macht. Die aktuelle Gen verkauft sich eben nicht so gut. Das Nvidia die 5090 direkt für >2000,- anbieten wird wie viele hier prognostizieren, sehe ich nicht. Aber warten wir mal ab.
 
Nein, von Ampere auf Ada war es nicht "auch so", sondern überhaupt nicht so. Die 4090 liegt 50% vor der 3090ti im PCGH GPU Leistungsindex. In 4K sogar fast 60%. Und soweit ich mich erinnere ist bei der Leistungseinordnung kein Frame Gen aktiv.
Jeder hier in diesem Forum weiß, dass deine Behauptung nur für die 4090 gilt und dass genau diese Grafikkarte aktuell 1600€ kostet.
 
Zurück