News Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit

Gerde das zweifle ich an, wenn ich mir a) Speicherausbau und dann noch b) die Anbindung desselben ansehe und das mit den aufgerufenen Preisen vergleiche. Und insbesondere mit Blick auf RT und die sich bei NV darum herum scharende Technologie sind die 4070er eher nur als Zwischenlösung brauchbar, da denen bei weiter wachsenden Spieleauflösungen oberhalb 2k (WQHD) doch recht schnell die Luft ausgehen wird und genau deshalb m.M.n. der Preis aktuell min. 200€ jeweils zu hoch angesetzt ist im Vergleich zu AMD. Aber NV will diesen Kunden ja spätestens in 1.5 Jahren wieder neue GPUs verscherbeln.
Du zweifelst an neutralen Tests. Ich meine die Ergebnisse kann sich ja ein jeder anschauen.

Einfache Frage an dich.

Nehmen wir einen Vergleich der letzten Gen.
3080 vs 6800XT.

Wie oft musste der 3080 Nutzer die Einstellungen wegen dem VRam reduzieren und wie oft musste der 6800XT Nutzer die RT Einstellungen reduzieren, wegen der zu knappen RT Leistung.

Meiner Meinung nach reicht die Leistung dieser ganzen Karten eh nicht für mehr als 1440p.

Mir geht es ja um den Blickwinkel, des begeisterten RT Nutzers. Das ist ja alles Blickwinkelabhängig.

Ich kann meine persönliche Anforderungen so ändern, das mal die 7900XT(X) die sicher bessere Wahl ist, wie aber auch die 4070ti/4080 die sicher bessere Wahl ist.

Da die Konsolen einen guten Anhaltspunkt geben, wird der Speicherbedarf der Spiele eine 12GB Karte nicht überfordern, ich rede jetzt nicht von Maximale Texturen, sondern davon ein Spiel lauffähig darzustellen.

Auf der anderen Seite, könnte man genau so gut auf die RT Leistung pfeifen, da die Konsolen lange genug das ausbremsen werden.
Preise jenseits 600€ oder gar ab 900€ für eine GPU sind für mich definitiv schon HighEnd - deshalb passt das P/L da auch überhaupt nicht mehr, wenn diese dann nicht einmal mittelfristig HighEnd ermöglichen. Egal was Inflation & Co so erzählen. Mein Gehalt ist jedenfalls nicht binnen 2 Jahren um 20% gewachsen. Und da nehme ich AMD absolut nicht aus, denn auch da passt P/L mit der aktuellen Generation definitiv nicht mehr. Aber diese Diskussion ist eh müßig, da hier jeder seine persönliche Finanzsituation und "Wohlfühlzone" bewerten muss und entsprechend handeln sollte.
Du bekommst aber keine GPU für 600 bis 900 € die es besser kann ;)

Die AMD hat nur mehr Speicher, aber stand heute das Nachsehen bei den Features und bei der RT Leistung.

Sieht man sich Benchs zu der 7900XTX und RT an, sieht man ganz schnell, das die 1100€ Karte von AMD bei weitem kein 4k kann... Wenn man RT mit betrachtet.
 
Mit dem Kauf erhält man sicherlich direkt den Premiumkunden-Status beim örtlichen Energieversorger. Leider haben die letzten Jahre gezeigt, dass mehr Leistung immer über mehr Leistungsaufnahme erreicht wurde. Höhere Effizienz wäre doch mal ein Verkaufsargument. Dann könnte man sich die absurden UVPs mit der Ersparnis beim Strompreis schön rechnen.

Gerade ADA hat doch bei der Effizienz so richtig auf den Putz gehauen? Weiss nicht was Du meinst.
 
Mit dem Kauf erhält man sicherlich direkt den Premiumkunden-Status beim örtlichen Energieversorger. Leider haben die letzten Jahre gezeigt, dass mehr Leistung immer über mehr Leistungsaufnahme erreicht wurde. Höhere Effizienz wäre doch mal ein Verkaufsargument. Dann könnte man sich die absurden UVPs mit der Ersparnis beim Strompreis schön rechnen.
Ich weiss gar nicht, was du willst. Ada ist doch gegenüber deutlich effizienter, als es noch Ampere war.
Für die gleiche Leistung verbraucht eine 4090 40-80W weniger Strom, als es z.B. eine 3080 Ti (selbst mit UV) tun würde.
Natürlich ist auch die Leistungs Obergrenze noch einmal angehoben worden, und wenn man das ausreizt, steigt eben auch die absolute Leistungsaufnahme über die Grenze, die die Vorgängergeneration definiert hat. Allerdings steigt parallel dazu ja auch die Leistung, und zwar überproportional!
Wenn du das nicht möchtest, dann drosselst du die Karte eben auf einen maximalen Verbrauch, den du angemessen findest.
Und, mal Hand auf's Herz: Du glaubst doch nicht allen Ernstes, dass irgendjemand eine neue Grafikkarte kaufen würde, wenn die kein bisschen schneller ist, als die alte, und nur weniger Strom verbraucht.
Das hat Intel mit den Core i 3xxx, 4xxx, 5xxx und 6xxx gemacht.
Die hatten gegenüber der direkten Vorgängergeneration nur eine Handvoll Prozent mehr Leistung und waren dafür sooooo viel sparsamer.
Und kaum jemand hat sich so ein Teil gekauft, solange seine alte Kiste überhaupt noch lief. Guck dir mal an, wann die Leute, die z.B. einen Core i 5 2500k hatten, aufgerüstet haben.
Das war erst bei den 8xxx wieder der Fall.
Falls du natürlich handfeste Beweise vorlegen kannst, die deine Behauptung, dass höhere Effizienz "doch mal ein Verkaufsargument" wären, untermauern können, lasse ich mich gern vom Gegenteil überzeugen.
Bis dahin verbleibe ich in erheblichem Zweifel daran.
 
Es ist ganz einfach, faselt das Gerücht von 512 Bit, bleibt es genau das. Ein Gerücht. Hatten wir die letzten Jahre oft genug, dass das neue Topmodell angeblich 512 Bit haben sollte. Nichts da. Waren immer 384 Bit im Vollausbau, mitunter etwas kastriert.
 
Gerade ADA hat doch bei der Effizienz so richtig auf den Putz gehauen? Weiss nicht was Du meinst.
Jep die Leute sehen immer nur das obere ende der Fahnenstange wie zb 600W bei einer 4090 das man die Karte aber auch in die andere Richtung optimieren kann sehen sie nicht. Ich kann mit meiner 4080 CP2077 inkl. RR mit über 100FPS und nur 220W in WQHD
 
Freue mich schon auf die nächste Generation. Hatte mir dieses Jahr zu Ostern eine eine RTX 3080 für 400€ geholt und die unter Wasser gesetzt und bin voll zufrieden damit. Wenn dann die nächste Generation kommt kann man ja bei der 4000 Serie zuschlagen oder ich hole mir doch das Flaggschiff ??
 
gestern das Gerücht kommentiert und heute kommen neue kleine details die meine Prognose genau vorhersagt
Leider wird es ada mit geändertem gpc design werden
Somit sind
gb207 2 gpc 32sm echte 2810 alu am werkeln verbaut sind 4096 bei 3,1ghz
Womit die sku als rtx5060ti und 17,4tf ergeben ich vermute das die sku dann 30sm hat also dann 16,3tf
da dies als n4x erscheint dürfte das Si identisch bleiben der chip maximal 160mm² messen und ab 369€ geben sofern gddr7 24gbit verwendet wird (128bit 12gb 32gbps=512gb/s).
Denkbar wäre auch gddr6x mit 24gb/s 384gb/s 16gb (359€)
Das als rtx5060ti +-0%

Ab dann geht das so weiter
gb 206 4gpc 64sm maxed 60sm 18gb oder 12gb rtx5070ti +15% 699€
gb 205 6 gpc 96sm 84sm (80er sku) 24gb oder 16gb +23% 999€
gb203 8 gpc sm 144sm 128sm 90er sku 32gb oder 24gb +15% 1499€
gb202 12 gpc 192sm 180sm quadro

In n3 würde das bis 2025 sich hinziehen in n4x dürfte das ziemlich genau zum Jahresende 24 kommen

Ob gddr6x oder gddr7 ist unklar bedes ließe sich vernünftige sku basteln abr das hängtd avon ab ob der chip ein ada anpassung ist oder wirklich neu designt wurde dann macht gddr7 mehr sinn dann aber dütrfte dies vor 2025 nix werden da gddr7 noch im sample status ist. Und vor q1 2025 nicht fertig wird.
 
Jep die Leute sehen immer nur das obere ende der Fahnenstange wie zb 600W bei einer 4090 das man die Karte aber auch in die andere Richtung optimieren kann sehen sie nicht. Ich kann mit meiner 4080 CP2077 inkl. RR mit über 100FPS und nur 220W in WQHD

Stimme zu. Meine 3080 verbrät undervoltet 280W in CP2077 WQHD PT+RR+DLSS Balanced. Und ich hab da keine 100 FPS. :ugly:
 
und kopite7kimi hat bis jetzt immer richtig gelegen
Das ist der Teil, der mich stutig macht, Niemand schafft das über Jahre, wenn Hersteller das nicht wollen. Dazu ist es zu einfach, Fallen zu legen und undichte Stellen zu entdecken. Für mich ist das ein Zeichen, dass es entweder in Abtimmung mit Nvidia passiert, oder kopite7kimi ein Nvidiamitarbeiter ist und es um ene Marketinstrategie geht. Das würde die Glaubwürdigkeit natürlich weiter erhöhen.
 
24.576 Shadereinheiten und 32 GiByte GDDR, Fette Sache. GGF sprengen wir die 1000 Watt TDP. Die 4090 hat mit Ihren 16.384 Shadern erreicht eine TDP von 450 Watt.
 
Der strombedarf wird nicht steigen gddr7 braucht nur noch 1,0v und der chip wird ähnlich effizient wie ada in 4n node
Steigt aber beim Takt um 11% durch mehr euv layer
rechnet also mit 3,1ghz und etwa 450-475w für den 142sm chip
 
Da die Konsolen einen guten Anhaltspunkt geben, wird der Speicherbedarf der Spiele eine 12GB Karte nicht überfordern, ich rede jetzt nicht von Maximale Texturen, sondern davon ein Spiel lauffähig darzustellen.
Na ja, wenn ich, um mal ein aktuell heiß diskutiertes Beispiel heranzuziehen, Starfield nur in Kosolenqulität zocken will, reichen mir ca. 500€, um das komplette Gerät zu erwerben. Wenn ich dasselbe Spiel jedoch am PC heranziehe und dann die auf Konsolen zurechtgestutzte Grafik Richtung PC-Leistungsmöglichkeiten modde (z.B. HighRes Texturen nutze), dann komm ich selbst mit 16 GB meiner RX6900XT bei WQHD in Grenzbereiche. Einer 4070/ti ist da schon lang vorher die Luft ausgegangen (auch ganz ohne aktuell noch offiziell fehlenden DLSS-Support oder FSR-Einsatz). Und das gleiche Spiel hat man auch bei RT&Co, wenn diese Features wirklich in einem Spiel gezogen werden und nicht nur für etwas bessere Spiegelei oder Schatten dienen. Insofern: was nützt mir die bessere RT-Leistung einer 4070, wenn bei ihr dann der Speicher aus allen Nähten platzt - vllt. nicht bei allen aktuellen Titeln, aber wenn diese Funktionen mehr und mehr Einzug in Spiele halten, zugleich auch die Auflösungen bei Texturen usw. hoch gezogen werden, dann landet man eben bei einer reichlich teuren Zwischenlösung.

Als man für das gleiche Geld einer 4070/ti sich noch eines der Top-Modelle bei NV kaufen konnte, war das für zig Jahre mehr als ausreichend dimensioniert. Spätestens seit der 2000er Serie und erst recht aktuell, muss man dafür schon weit mehr als das Doppelte investieren. Und dabei ist egal, woher diese Preise kommen: der P/L-Abstand passt einfach im Gesamtgefüge aktuell nicht mehr. Es scheinen nur global gesehen noch genug (oder vllt. sogar immer mehr) Leute bereit, diese Preise zu zahlen, so dass das Geschäftsmodell bei den Consumer-Produkten (noch) aufgeht. Die Schwerpunktverlagerung seitens NV Richtung B2B-Systeme und bei AMD der kolportierte Abgesang auf Investitionen in High-End-Entwicklungen/-Produkte scheinen aber schon die Richtung vorzuzeichnen, die sich für Spieler ergeben wird. Vermutlich werden zumindest bei AMD die PLäne für die nächste Konsolengeneration dann den Takt der Entwicklung vorgeben, weil da Marge zu holen ist und NV kann sich daran orientieren, was es maximal mehr leisten/anbieten müsste, um vorne zu bleiben und kann dann wertvolle Produktionskapazitäten für die extrem margenträchtigen KI-Entwicklungen einsetzen. Fehlender Konkurrenzdruck in der einen wie der anderen Richtung werden beiden Konzernen helfen, sich den Markt hübsch aufzuteilen, so dass jeder sich ein passendes Stück von der Torte holen kann. In dem Zusammenhang wird spannend sein, was die Kartell-Ermittlung gegen NV in Frankreich ggf. zutage fördert ... würde mich nicht wundern, wenn zumindest NV und AMD gegenseitig ihre Claims längst abgesteckt hätten - zum Wohle beider und ihrer Investoren sowie zum Schaden der gemolkenen Kundschaft.
 
Gähn, GPUs die mittlerweile so viel wie zwei gute Gaming-Laptops oder 4 aktuelle Konsolen kosten, locken mich nicht mehr hinterm Ofen hervor. :wayne:

Schön wäre mal wieder eine "echte" und bezahlbare Mittelklasse im 300-400(max) € Bereich.

MfG
 
Jep die Leute sehen immer nur das obere ende der Fahnenstange wie zb 600W bei einer 4090 das man die Karte aber auch in die andere Richtung optimieren kann sehen sie nicht. Ich kann mit meiner 4080 CP2077 inkl. RR mit über 100FPS und nur 220W in WQHD
Grundsätzlich hast du recht.
Die 4090 ist nicht zwingend ein Verbrauchs-Monster, kann es aber schon sein!
Aber was ICH und viele, nicht machen werden, mir eine Karte kaufen und dann muss ICH Selbst noch an der Effizienz schrauben, bei Sparwut vlt sogar Leistung verlieren, die ich eigentlich gekauft hatte.
Denn Für 4K und das Momentan nur Periphere RT ist selbst die 4090 viel zu schwach. Das dauert noch gut 2-3 Generationen. Ich kaufe das Ding und dann muss es Sparsam sein oder eben nicht weils mir komplett egal ist, je nachdem was ich will!
 
Was für eine fette Karte. Beim Speicher hätte man gleich 48 GiB verbauen können, weil es sich um eine High End Ti Serien Karte handelt. Also doppelt so viel wie die Serien RTX30 & 40 hatten. Die RTX 5090 (Ti) hebt sich laut den Daten aber so schon deutlich von der RTX 4090 Serie ab.:cool:
 
Grundsätzlich hast du recht.
Die 4090 ist nicht zwingend ein Verbrauchs-Monster, kann es aber schon sein!
Aber was ICH und viele, nicht machen werden, mir eine Karte kaufen und dann muss ICH Selbst noch an der Effizienz schrauben, bei Sparwut vlt sogar Leistung verlieren, die ich eigentlich gekauft hatte.
Denn Für 4K und das Momentan nur Periphere RT ist selbst die 4090 viel zu schwach. Das dauert noch gut 2-3 Generationen. Ich kaufe das Ding und dann muss es Sparsam sein oder eben nicht weils mir komplett egal ist, je nachdem was ich will!

Was redest Du da? Gibt genug Beispiele von Leuten die CP2077 4K mit Pathtracing und 90+ FPS zocken. Siehe hier:
https://extreme.pcgameshardware.de/...die-fangfrage-pathtracing-an-oder-aus.640152/

Und die Ada Karten sind auch im Auslieferungszustand ziemlich sparsam wenn man sie mit Ampere, RDNA2 und RDNA3 vergleicht.
 
Joa, wenn das mal rauskommt und man ein paar Tausender zuviel hat, und vielleicht noch n wassergekühltes 1500 Watt-Netzteil, wäre das vielleicht ne Überlegung wert. Dann kann man GTA6 endlich in 4K zocken, und es ruckelt kaum noch! Oder Counterstrike mit 3000 Frames!

Die Abluft könnte man dann vielleicht im Haus ins Heizsystem mit einleiten (Wärmepumpe?), für Warmwasser zB zum Duschen.
 
Zurück