News Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit

Was redest Du da? Gibt genug Beispiele von Leuten die CP2077 4K mit Pathtracing und 90+ FPS zocken. Siehe hier:
https://extreme.pcgameshardware.de/...die-fangfrage-pathtracing-an-oder-aus.640152/

Und die Ada Karten sind auch im Auslieferungszustand ziemlich sparsam wenn man sie mit Ampere, RDNA2 und RDNA3 vergleicht.
?
Kein plan wovon du redest ich hab jetzt nachgeschaut das wo du von redest ist wahrscheinlich die RTX6090

Die 4090 hat in Ultra Settings in echten 4k + RT/PT etwas mehr als 30fps- 50fps erst mit Moderat gesenkten settings geht sie auf 50-60fps
 
24.576 Shadereinheiten und 32 GiByte GDDR, Fette Sache. GGF sprengen wir die 1000 Watt TDP. Die 4090 hat mit Ihren 16.384 Shadern erreicht eine TDP von 450 Watt.
Das glaube ich kaum.
Zum einen wird NV da noch verbesserungen an der Architektur vorgenommen haben, und zum anderen wird der neue Chip in 3 nm gefertigt.
Ich denke, der bisherige 600 W Stecker wird dafür noch ausreichen.
Na ja, wenn ich, um mal ein aktuell heiß diskutiertes Beispiel heranzuziehen, Starfield nur in Kosolenqulität zocken will, reichen mir ca. 500€, um das komplette Gerät zu erwerben. Wenn ich dasselbe Spiel jedoch am PC heranziehe und dann die auf Konsolen zurechtgestutzte Grafik Richtung PC-Leistungsmöglichkeiten modde (z.B. HighRes Texturen nutze), dann komm ich selbst mit 16 GB meiner RX6900XT bei WQHD in Grenzbereiche. Einer 4070/ti ist da schon lang vorher die Luft ausgegangen (auch ganz ohne aktuell noch offiziell fehlenden DLSS-Support oder FSR-Einsatz). Und das gleiche Spiel hat man auch bei RT&Co, wenn diese Features wirklich in einem Spiel gezogen werden und nicht nur für etwas bessere Spiegelei oder Schatten dienen. Insofern: was nützt mir die bessere RT-Leistung einer 4070, wenn bei ihr dann der Speicher aus allen Nähten platzt - vllt. nicht bei allen aktuellen Titeln, aber wenn diese Funktionen mehr und mehr Einzug in Spiele halten, zugleich auch die Auflösungen bei Texturen usw. hoch gezogen werden, dann landet man eben bei einer reichlich teuren Zwischenlösung.
Dann sag doch den Spieleherstellern, dass sie nicht so viel VRam verwenden sollen in ihren Spielen.
Oder probier mal eine niedrigere Texturauflösung als "Ultra" aus.
Das geht bei vielen Spielen.
Als man für das gleiche Geld einer 4070/ti sich noch eines der Top-Modelle bei NV kaufen konnte, war das für zig Jahre mehr als ausreichend dimensioniert. Spätestens seit der 2000er Serie und erst recht aktuell, muss man dafür schon weit mehr als das Doppelte investieren. Und dabei ist egal, woher diese Preise kommen: der P/L-Abstand passt einfach im Gesamtgefüge aktuell nicht mehr. Es scheinen nur global gesehen noch genug (oder vllt. sogar immer mehr) Leute bereit, diese Preise zu zahlen, so dass das Geschäftsmodell bei den Consumer-Produkten (noch) aufgeht.
Angebot und Nachfrage.
Dir sind die Preise zu hoch? Dann benutz deine alte GPU einfach weiter. Problem gelöst.
Die Schwerpunktverlagerung seitens NV Richtung B2B-Systeme und bei AMD der kolportierte Abgesang auf Investitionen in High-End-Entwicklungen/-Produkte scheinen aber schon die Richtung vorzuzeichnen, die sich für Spieler ergeben wird. Vermutlich werden zumindest bei AMD die PLäne für die nächste Konsolengeneration dann den Takt der Entwicklung vorgeben, weil da Marge zu holen ist und NV kann sich daran orientieren, was es maximal mehr leisten/anbieten müsste, um vorne zu bleiben und kann dann wertvolle Produktionskapazitäten für die extrem margenträchtigen KI-Entwicklungen einsetzen. Fehlender Konkurrenzdruck in der einen wie der anderen Richtung werden beiden Konzernen helfen, sich den Markt hübsch aufzuteilen, so dass jeder sich ein passendes Stück von der Torte holen kann. In dem Zusammenhang wird spannend sein, was die Kartell-Ermittlung gegen NV in Frankreich ggf. zutage fördert ... würde mich nicht wundern, wenn zumindest NV und AMD gegenseitig ihre Claims längst abgesteckt hätten - zum Wohle beider und ihrer Investoren sowie zum Schaden der gemolkenen Kundschaft.
Eine Firma ist zu keinem Zeitpunkt während ihres Bestehens zum Wohle der Kundschaft da, sondern um Gewinne zu erwirtschaften.
Wenn die Aussicht auf Gewinne fehlt, wird es keine Investoren geben und folglich kein Geld und auch keine Firma (oder sie wird Pleite gehen).
Das Wohl der Kundschaft ist für Firmen natürlich nicht völlig unwichtig, aber es muss sich der Gewinnerzielungsabsicht unterordnen, sonst gibt es die ach so kundenfreundliche Firma nicht sehr lange.

Und am konkreten Beispiel mangelt es AMD einfach an der Fähigkeit, kostendeckend (da haben wir's wieder) im Spitzensegment mit NV Schritt zu halten.
Falls man es dort überhaupt hinbekommen würde, eine Karte zu bauen, die mit NV's x090 auf Augenhöhe konkurriert, würde das viel Geld kosten, das man möglicherweise nie wieder rein bekommt, und besser in die Entwicklung der nächsten Mittelklasse stecken sollte, weil es da pro investiertem Euro mehr Gewinn abwerfen würde.

Die machen das doch nicht nur zum Spass.
Natürlich geht es ums Geld verdienen.
 
?
Kein plan wovon du redest ich hab jetzt nachgeschaut das wo du von redest ist wahrscheinlich die RTX6090

Die 4090 hat in Ultra Settings in echten 4k + RT/PT etwas mehr als 30fps- 50fps erst mit Moderat gesenkten settings geht sie auf 50-60fps

Ach komm, lass die "nativ" oder "echt" Diskussion sein. Fakt ist dass eine 4090 im aktuell technisch anspruchsvollsten Titel gute FPS liefert durch DLSS und Frame Generation. Schaltet man um von Pathtracing auf Raytracing benötigt man nicht mal Frame Generation für ausreichend hohe FPS.
 
Würde mir nie im Traum einfallen von meiner 4080 auf eine 3060 zu wechseln um Strom zu sparen. ne 3060 nuckelt auch 170w ne 3060Ti 200w bei nur einem Bruchteil der Leistung von meiner gezügelten 4080 ca. 220W

Eben, deshalb fand ich seine Aussage so komishc.
Die 4080 kann man ja auch problemlos auf weniger Watt begrenzen.
 
Ach komm, lass die "nativ" oder "echt" Diskussion sein. Fakt ist dass eine 4090 im aktuell technisch anspruchsvollsten Titel gute FPS liefert durch DLSS und Frame Generation. Schaltet man um von Pathtracing auf Raytracing benötigt man nicht mal Frame Generation für ausreichend hohe FPS.

ICH rede nicht von echt und unecht: Sondern DU
Ich sagte etwas wie das die RTX 4090 keine ordentlich spielbaren FPS bei 4k Ultra RT.. bla bla schafft- und das tut sie auch nicht! Ich habe Recht. Und da will ich auch gar nicht weiter drüber Quatschen! DLSS/FSR völlig irrelevant für meine Aussage.

Ob du oder andere irgendwas Echt oder Unecht empfinden, kann mir komplett am A**h vorbeigehen. Ich weiß gar nicht warum das überhaupt wichtig ist für meine Erste Ausage
Klar wenn man hier stellt, da stellt, da noch etwas Software Trickserei macht schafft man in 4k bestimmt auch mit ner 1050Ti "spielbare FPS. Logo war schon immer so! Aber wenn juckt das Alles...echt unecht, eigene Präferenzen. Fakt ist, Die RTX4090 alleine schafft es nicht, nicht mal wenn sie das Maximum aus der Steckdose Lutscht..
 
Zuletzt bearbeitet:
ICH rede nicht von echt und unecht: Sondern DU
Ich sagte etwas wie das die RTX 4090 keine ordentlich spielbaren FPS bei 4k Ultra RT.. bla bla schafft- und das tut sie auch nicht! Ich habe Recht. Und da will ich auch gar nicht weiter drüber Quatschen! DLSS/FSR völlig irrelevant für meine Aussage.

Ob du oder andere irgendwas Echt oder Unecht empfinden, kann mir komplett am A**h vorbeigehen. Ich weiß gar nicht warum das überhaupt wichtig ist für meine Erste Ausage
Klar wenn man hier stellt, da stellt, da noch etwas Software Trickserei macht schafft man in 4k bestimmt auch mit ner 1050Ti "spielbare FPS. Logo war schon immer so! Aber wenn juckt das Alles...echt unecht, eigene Präferenzen. Fakt ist, Die RTX4090 alleine schafft es nicht, nicht mal wenn sie das Maximum aus der Steckdose Lutscht..

"Ich habe Recht", hast Du dabei mit dem Fuß auf den Boden gestampft? :lol:

1696002350380.png


1696002383661.png


Leider nein, leider gar nicht. Also dass Du Recht hast. :D
 
Die machen das doch nicht nur zum Spass.
Natürlich geht es ums Geld verdienen.
Binsenweisheit - hab ich was anderes behauptet? Ich beschreibe nur die mögliche und vermutlich sogar wahrscheinliche Entwicklung aus diesen Trends. Der BWLer-Krug geht halt solang zum Brunnen bis er bricht ... und dann wird gejammert und nach Staatshilfen geplärrt...
Dann sag doch den Spieleherstellern, dass sie nicht so viel VRam verwenden sollen in ihren Spielen.
Oder probier mal eine niedrigere Texturauflösung als "Ultra" aus.
Auch hier hab ich nur Tatsachen beschrieben. Wenn nämlich Spielehersteller genau das machen, wie bei Starfield, dann schreien genau die PC-Daddler was für ne 90er Jahre Design das Spiel doch hätte ...
Dir sind die Preise zu hoch? Dann benutz deine alte GPU einfach weiter. Problem gelöst
S.o.: Binse ... und rate Mal scharf, was ich angesichts der von mir beschriebenen Situation mache. ? Davon ab: ich hab nicht die absoluten Preise v.a. kritisiert, sondern das Verhältnis aus Preis zur Leistung. Deshalb gehen mir auch beide Line-Ups der beiden Hauptakteure im GPU-Business bis auf weiteres ganz weit am unteren Rücken vorbei.
 
Na ja, wenn ich, um mal ein aktuell heiß diskutiertes Beispiel heranzuziehen, Starfield nur in Kosolenqulität zocken will, reichen mir ca. 500€, um das komplette Gerät zu erwerben. Wenn ich dasselbe Spiel jedoch am PC heranziehe und dann die auf Konsolen zurechtgestutzte Grafik Richtung PC-Leistungsmöglichkeiten modde (z.B. HighRes Texturen nutze), dann komm ich selbst mit 16 GB meiner RX6900XT bei WQHD in Grenzbereiche.
Also, du meinst jetzt nicht die max Optik des Spieles? Sondern darüber hinaus...

Außerdem ist das nur als Notfall Fallback gemeint.

Da Nvidia aber weit effizienter mit dem Speicher um kann als AMD, sehe ich nicht wirklich große Probleme.
Einer 4070/ti ist da schon lang vorher die Luft ausgegangen (auch ganz ohne aktuell noch offiziell fehlenden DLSS-Support oder FSR-Einsatz).
OK, dann ziehe ich nochmal die RT Karte.
Eine 7900xtx ist schon längst nicht mehr zum flüssigen spielen geeignet, während selbst die 4070 das schon besser kann.

Beispiel Cyberpunk mit Ray tracing. Über path tracing brauchen wir da nicht nicht reden.
Und das gleiche Spiel hat man auch bei RT&Co, wenn diese Features wirklich in einem Spiel gezogen werden und nicht nur für etwas bessere Spiegelei oder Schatten dienen. Insofern: was nützt mir die bessere RT-Leistung einer 4070, wenn bei ihr dann der Speicher aus allen Nähten platzt - vllt.
Also ich kann Cyberpunk flüssig mit max RT genießen.
Nur ein Beispiel, gibt noch mehr.
nicht bei allen aktuellen Titeln, aber wenn diese Funktionen mehr und mehr Einzug in Spiele halten, zugleich auch die Auflösungen bei Texturen usw. hoch gezogen werden, dann landet man eben bei einer reichlich teuren Zwischenlösung.
Ob jetzt der Speicher ausgeht, oder die RT Leistung begrenzt ist Latte.
Als man für das gleiche Geld einer 4070/ti sich noch eines der Top-Modelle bei NV kaufen konnte, war das für zig Jahre mehr als ausreichend dimensioniert. Spätestens seit der 2000er Serie und erst recht aktuell, muss man dafür schon weit mehr als das Doppelte investieren.
AMD bietet Null Komma Null mehr pro Euro.
Und dabei ist egal, woher diese Preise kommen: der P/L-Abstand passt einfach im Gesamtgefüge aktuell nicht mehr. Es scheinen nur global gesehen noch genug (oder vllt. sogar immer mehr) Leute bereit, diese Preise zu zahlen, so dass das Geschäftsmodell bei den Consumer-Produkten (noch) aufgeht. Die Schwerpunktverlagerung seitens NV Richtung B2B-Systeme und bei AMD der kolportierte Abgesang auf Investitionen in High-End-Entwicklungen/-Produkte scheinen aber schon die Richtung vorzuzeichnen, die sich für Spieler ergeben wird. Vermutlich werden zumindest bei AMD die PLäne für die nächste Konsolengeneration dann den Takt der Entwicklung vorgeben, weil da Marge zu holen ist und NV kann sich daran orientieren, was es maximal mehr leisten/anbieten müsste, um vorne zu bleiben und kann dann wertvolle Produktionskapazitäten für die extrem margenträchtigen KI-Entwicklungen einsetzen. Fehlender Konkurrenzdruck in der einen wie der anderen Richtung werden beiden Konzernen helfen, sich den Markt hübsch aufzuteilen, so dass jeder sich ein passendes Stück von der Torte holen kann. In dem Zusammenhang wird spannend sein, was die Kartell-Ermittlung gegen NV in Frankreich ggf. zutage fördert ... würde mich nicht wundern, wenn zumindest NV und AMD gegenseitig ihre Claims längst abgesteckt hätten - zum Wohle beider und ihrer Investoren sowie zum Schaden der gemolkenen Kundschaft.
Nochmal AMD macht nichts anders. Nicht falsch verstehen, ich finde auch das alle Autos zu teuer sind. Aber das Kreide ich nicht einem Hersteller an.
Gähn, GPUs die mittlerweile so viel wie zwei gute Gaming-Laptops oder 4 aktuelle Konsolen kosten, locken mich nicht mehr hinterm Ofen hervor. :wayne:

Schön wäre mal wieder eine "echte" und bezahlbare Mittelklasse im 300-400(max) € Bereich.

MfG
Also, ich habe ja mal nach einem gaming Laptop geschaut, mit mehr als 12gb. Der kostete 6500€
Grundsätzlich hast du recht.
Die 4090 ist nicht zwingend ein Verbrauchs-Monster, kann es aber schon sein!
Aber was ICH und viele, nicht machen werden, mir eine Karte kaufen und dann muss ICH Selbst noch an der Effizienz schrauben, bei Sparwut vlt sogar Leistung verlieren, die ich eigentlich gekauft hatte.
Denn Für 4K und das Momentan nur Periphere RT ist selbst die 4090 viel zu schwach. Das dauert noch gut 2-3 Generationen. Ich kaufe das Ding und dann muss es Sparsam sein oder eben nicht weils mir komplett egal ist, je nachdem was ich will!
Die Effizienz der 4090 ist super.
?
Kein plan wovon du redest ich hab jetzt nachgeschaut das wo du von redest ist wahrscheinlich die RTX6090

Die 4090 hat in Ultra Settings in echten 4k + RT/PT etwas mehr als 30fps- 50fps erst mit Moderat gesenkten settings geht sie auf 50-60fps
Echten- das entlarvt jeden als Dinosaurier;).

Dann nehme ich lieber die unechten FPS, als diese altbacken Grafik, die offensichtlich fast in jeder Szene brutal falsch ausgeleuchtet wird.
 
Zuletzt bearbeitet:
Also, du meinst jetzt nicht die max Optik des Spieles? Sondern darüber hinaus...
Ich meine so etwas wie etwa aus diesem Mod-Paket: https://www.nexusmods.com/starfield/mods/496
Da wurden zahlreiche Texturen für hohe Auflösungen deutlich optimiert und damit grafisch / optisch deutlich auch gegenüber dem Auslieferungsszustand verbessert, der m.M.n. eindeutig mit Blick auf die Leistungsfähigkeit der XBSX abgestimmt wurde - und mit u.a. dieser Mod zieht die Grafik etwa in meinem System in anspruchsvollen Bereichen wie Atlantis City dann fast 16 GB VRAM.
Da Nvidia aber weit effizienter mit dem Speicher um kann als AMD, sehe ich nicht wirklich große Probleme.
Das ist nun eine Frage, was man unter "effizienter"versteht - mir fehlt da der direkte Vergleich, aber es kann sich dabei ja nur um die Befüllung, ggf. Auslagerung und wieder Freigabe handeln - denn wenn grafische Inhalte eine Menge X an VRAM anfordern/belegen, kann NV auch nicht viel mehr machen als solange VRAM zur Verfügung stellen, bis er ausgeht und dann wird im besten Fall ausgelagert...
Nochmal AMD macht nichts anders. Nicht falsch verstehen, ich finde auch das alle Autos zu teuer sind. Aber das Kreide ich nicht einem Hersteller an.
Auch hier nochmal: Mir geht es in meinen Ausführungen nicht primär um den absoluten Preis, sondern das Verhältnis aus Preis u. Leistung insbesondere auch innerhalb einer Generation. Mir z.B. taugt das schon lange nicht mehr. Einen Teil hat das Mining samt Pandemie zu den stark gestiegen Preisen beigetragen, der Rest ist einfach hartes Up-Selling, wo man halt mittlerweile zunehmend nicht wie bei früheren Generation mehr "Bang for the (same or less) Bucks" bekommen hatte, sondern sich die Hersteller den technsichen Fortschritt a) vergolden lassen und b) Effizienzgewinne bei der Herstellung auch ausschließlich zu ihrem eigene Profit verwendet werden.

Früher (also bis ca. in die frühen 2000er) hat sich nämlich die Computerbranche noch etwa gegenüber Autoherstellern damit gerühmt, wie stark die Kunden vom Entwicklungsfortschritt profitieren würden, auch finanziell - gab da diese schöne Aussage von Bill Gates in seinem Buch “Der Weg nach vorn”: “Wenn die Autoindustrie solche Fortschritte gemacht hätte wie die Computerindustrie, würden wir heute für 40 Mark ein Auto bekommen, das 0,3 l/100 km verbraucht.”

Heute will man sich auch hier analog der Automobilbranche jedes Feature am liebsten extra bezahlen lassen. Das Modell funktioniert halt, weil wir es etwa bei GPUs mittlerweile quasi mit einem Duopol zu tun haben, in dem die beiden Protagonisten sich offenbar die Claims sauber abgesteckt haben, so dass für jeden die optimale Marge herausspringt. Ich werte das auch erst Mal gar nicht (sondern berücksichtige das direkt in meinem Kaufverhalten) und wenn, dann müssten da Kartellbehörden drauf schauen. Sondern ich sehe halt eine Entwicklung, bei der künftig nur noch die "Reste" (auch hinsichtlich Produktionskapazitäten) für die Spielerschaft zu Spitzenpreisen angeboten werden und die Spitzenprodukte direkt ins B2B-Geschäft wandern, und dort noch mehr Marge generieren. Das ist betriebswirtschaftlich auch folgerichtig. Fragt sich nur, wielange damit ein PC Gamingmarkt eine Perspektive behält, die auch Spielehersteller animiert immer neue Grenzen auszuloten. Klar wird es weiterhin reichlich Leute geben, für die die aufgerufenen Preise eh Peanuts sind bzw. die es als unabdingbaren Invest ins Haupt-Hobby sehen, der nunmal anfällt, will man das aktuell Beste haben. Aber das ist so wie die Leserschaft hier im Forum eine verschwindende Minderheit. Man sehe einfach nur mal in die Steam-Surveys der jüngeren Zeit, was dort nach wie vor dominiert - und das dürfte angesichts der Nutzerzahlen von Steam durchaus representativ sein. Letztlich bleibt alles eine akademische Debatte, weil es keine nennenswwerten Einfl.ussmöglichkeiten auf die Produkt- wie Preis-Politik der Konzerne gibt. Einzig bei unzulässigen Preisabsprachen o.ä. könnten vllt. noch Kartellbehörden etwas ausrichten, aber auch nur dann, wenn ein entsprechender Nachweis geführt werden kann.
 
Wie hier ernsthaft Leute mit einer 4090 jetzt schon rumheulen und unbedingt die 5090 haben wollen da die 4090 ja dann kaum noch zu gebrauchen sein wird, unglaublich. Da hat Nvidia echt alles richtig gemacht...
Nicht alle. Bin mit meiner 4090 noch sehr zufrieden. Aktuell und auf nächste Zeit gibt es eh nix schnelleres aufm Markt...

Sonst: jap, is arschlahm die dickste Ada:D

Gruß
 
Deine Lösung ist also auf lastGen setzen
, zwei Jahre+ warten und dann nur 12 GB?

Hat nicht viel mit vernünftiger midgen GPU zu tun, ist nur ein zeitintensiver workaround mit zu wenig vRam und bringt nichts, gegen die völlig überzogenen GPU Preise. Kein Wunder das Konsolen immer beliebter werden und der PC abschmiert.

MfG
 
Deine Lösung ist also auf lastGen setzen
, zwei Jahre+ warten und dann nur 12 GB?

Hat nicht viel mit vernünftiger midgen GPU zu tun, ist nur ein zeitintensiver workaround mit zu wenig vRam und bringt nichts, gegen die völlig überzogenen GPU Preise. Kein Wunder das Konsolen immer beliebter werden und der PC abschmiert.

MfG
Es hat genügend Vram und Leistung, ist eine gute 1440P Karte ohne Raytracing.
Mittelklasse ist Mittelklasse, man bekommt was man bezahlt. Die Karte hat ein gutes P/L Verhältnis.

Außerdem schmiert der PC nirgendwo ab, ganz in Gegenteil, PC Gaming ist im Wachstum während Konsolengaming stagniert.

 
Gähn, GPUs die mittlerweile so viel wie zwei gute Gaming-Laptops oder 4 aktuelle Konsolen kosten, locken mich nicht mehr hinterm Ofen hervor. :wayne:
Ja ne ist klar, weil man für 1500 Euro 2 gute Gaming Notebooks bekommt...
Eine RTX 4070 bekommt man gebraucht für etwa 500 Euro und die reicht inkl. DLSS und Frame Gen in WQHD die nächsten 5 Jahre spielend für gutes Gaming.
 
Zurück