News Geforce RTX 5090: Neue Gerüchte sprechen von 70 Prozent Mehrleistung zur Geforce RTX 4090

Ich bin dermaßen zufrieden mit meiner 4090, dass mir eine 5090 aktuell ......egal ist. Dank DLSS bin ich oft mit nur 300 Watt Gesamtleistung in Spielen unterwegs und die Karte hat für mich noch so einiges an Reserven.

Die nächsten Anschaffungen gehen von daher auf einem vernünftigen Stuhl (ca. 1.500 eingeplant) und sobald ausgereift, ein UWQHD Oled oder IPS Black Monitor mit 40" oder mehr.

Da habe ich deutlich mehr davon, als von einer Grafikkarte mit einer Leistung, die ich gar nicht brauche.
 

Neue Gerüchte sprechen von 70 Prozent Mehrleistung zur Geforce RTX 4090​


Die PC Games Hardware berichtet hingegen über neuerliche Gerüchte zur Performance der GeForce RT 5090 aus nVidias kommender "Blackwell-Generation". Ausgangspunkt des ganzen ist ein neues Video seitens Moore's Law Is Dead, welches jedoch im eigentlichen keine neuen Leaks bereithält, sondern eher denn über die GeForce RTX 5090 spekuliert. Dies ist sicherlich erlaubt, wird aber leider von vielerlei Magazinen in der Form eines "Leaks" abgeschrieben. Genauso konzentriert man sich dabei nur auf die größte genannte Zahle (+70% Performance), ignorierend dass der YouTuber eigentlich mit einer "+50% Performance" anfängt und die größere Zahl dann nur in Form von Hörensagen nennt. Das eigentliche Thema des YouTubers ist bei dieser Berichterstattung komplett in den Hintergrund getreten: Es ging vielmehr darum, dass nVidia auch beim Top-Modell der Blackwell-Generation nicht mit einem Vollausbau antreten dürfte, sondern hingegen mit einer Salvage-Version (äquivalent zur GeForce RTX 4090).

Quelle: News des 29. Februar 2024

Was spricht bitte schön gegen eine Berichterstattung im Stile des 3D Centers?

mit frdl. Gruß
 
Zuletzt bearbeitet:
AD102 hat 144 SM und nicht nur 128. Die 4090 ist halt kein Vollausbau. Es gibt eine Quadro RTX mit 142 SM. Bei einer 5090 würde ich daher auch nicht von einem Vollausbau ausgehen, sondern etwas in Richtung 160 SM.
 
Man muss aber auch sagen, das die vielen Sahder der 4090 gefühlt in Spielen nicht soviel bringen, sonst wäre die Lücke zwischen der 4080 und 4090 höher. Das könnte aber z.b. am ZU langsamen VRAM liegen, was GDDR7 ja fixt...

Ich habe mich schon oft gefragt, warum der Unterschied zwischen der 4080 und 4090 nicht so groß ist, wie man es anhand der Specs erwarten würde. Glaubst du wirklich, das liegt am Speicherinterface?
 
Muss ich 2 Nieren verkaufen oder reicht 1?
Die Preise sind nicht mehr normal wenn ich vergleichbare Grafikkarten bei AMD ansehe sind die nur halb so teuer
Mit nur wenigen Abstrichen bei der Leistung
 
Was ist überhaupt an dem Gerücht dran, das die 5090 noch dieses kommen soll?

Ich habe mich schon oft gefragt, warum der Unterschied zwischen der 4080 und 4090 nicht so groß ist, wie man es anhand der Specs erwarten würde. Glaubst du wirklich, das liegt am Speicherinterface?
Schwer zu sagen. Aber einen linearen Boost scheint bei so vielen Kernen nicht mehr zu gehen.
Die nächsten Anschaffungen gehen von daher auf einem vernünftigen Stuhl (ca. 1.500 eingeplant)
Viele sind mit den Herman Miller Aeron zufrieden.
Muss ich 2 Nieren verkaufen oder reicht 1?
Kommt auf das Land an. In einigen Ländern sind Nieren mehr Wert.
Mit der läuft Cyberpunk mit Path Tracing auch endlich flüssig
Eine 4090 schafft 90-100FPS mit DLSS Performance und Frame Generation in 4k mit maxed PT.
 
Der Vergleich hinkt, hält der Ferrari doch seinen Wert, während hingegen die Halbwertszeit einer Grafikkarte recht schnell naht. Abseits davon dient ein Forum nicht ausschließlich der Lobhudelei...

mit frdl. Gruß
Nunja. Eine GPU ist ein Luxus Nutzgegenstand. Würdest du ein Ferrari jeden Tag nutzen, ist der auch irgendwann zerschlissen und nichts wert. :D
Ja das ist echt interessant. Es sind halt mal eben 60% mehr Kerne. Aber in Spielen kommt davon meistens nur maximal in 35% rum, eher weniger. Daher bin ich doch zufrieden mit dem Kauf der 4080 Super. :)
Nun ich bin mit meiner 4090 eigentlich zufrieden. Eine 4080 wäre am Ende in einigen Fällen zu langsam gewesen.
Wenn z.b. CP2077 mit PT bei mir mit 90FPS läuft, wären es auf einer 4080 eher 60FPS und den Unterschied zwischen 60 und 90 merke ich deutlich, den Unterschied zwischen 90 und 120 nicht mehr so ganz.

Ist nun eine 4090 es wert in den paar Spielen auf >90FPS zukommen anstatt 60FPS? Eher nicht. :D :D :D
Trotzdem zocken ist mein Hobby und das Beste muss her. Solange ich das Geld über habe, versteht sich.
Kredite oder Schulden werden dafür nicht gemacht!!!
 
Hoffentlich nicht die Intel Nummer .. Leistungssteigerung bei doppeltem Energieverbrauch.
Bei einem 3nm Fertigungsprozess wohl kaum 🤔
Die 4000 sind doch effizient wie eine Ameise, verbrauchen wenig aber leisten viel. Also wieso so skeptisch?
Naja UE5 kann eine GPU auch ohne RT oder PT viel abverlangen. Remnant2 z.b.
Wenn selbst ne 4090 dort keine 60FPS in 4k erreicht...
Lords of the Fallen war auch ein UE5 Spiel ohne 60FPS in 4k.

Mein Ziel ist sogar >90 bis 120FPS... und das dann für die kommenden 4-6 Jahre... denn mit der 5090 will ich dann (endlich) wieder eine oder gar 2 GPU Gens überspringen. :D
Sowas hat aber viel weniger mit der Grafikkarte an sich zu tun, als mit der Optimierung des Spiels!
Man sehe einfach mal die Konsolen an, auch wenn es kein 4K ist, dennoch laufen aktuelle Spiele in 2K/1440p super flüssig mit einer zur 4089/4090 vergleichsweise um Welten schwächeren GPU, werden aber auch dementsprechend gut an die Hardware angepasst.
Sich nun aber deshalb immer die stärkste und teuerste GPU kaufen zu müssen, um schlechte Optimierungen der Spiele wieder auszugleichen, ist definitiv der falsche Weg. Da warte ich lieber ganze Jahre, bis Spiele ordentlich optimiert sind und die GPUs durch ihre Treiber gut ausgereizt werden, als sich jede Generation die bestmögliche GPU kaufen zu müssen, damit die aktuellsten Games möglichst flüssig laufen.
Mit der läuft Cyberpunk mit Path Tracing auch endlich flüssig
Wer's braucht. Ich weiß gar nicht wann ich irgendeine Raytracing Funktion auf meiner 4090 genutzt habe. Kurz nach dem Kauf Ende 2022 vielleicht 🤔
Will damit nur sagen, dass mir der Mist komplett gestohlen sein kann und der Hype vom raytracing bei mir einfach nicht gezogen hat. Klar, wenn wir irgendwann soweit sind, dass das ein gewöhnliches Feature ist wie Antialiasing oder Anisotropisches Filtern und nur ähnlich wenig Leistung benötigt, aktiviere ich es gerne aber bis dato juckt mich die echte Licht und Schatten Berechnung die Bohne!
Ich bringe es einfach nicht übers Herz einen Verbrauch von weit über 300 Watt zu sehen, wenn es ohne gleich gut aussieht und da wesentlich unter 200 Watt verbraucht werden. Das ist es mir einfach nicht wert und sorgt nicht in geringsten für weniger Spaß am Spielen.
Es gibt so viele Titel, wo die Grafik ultra schön ist völlig ohne Raytracing und das kann von mir aus auch lange noch so bleiben und da kann mir von mir aus die ganze Welt erzählen, was für eine Zukunft Raytracing sein soll. Juckt mich einfach nicht. Wenn's so weit ist, ist es soweit, wenn nicht, dann nicht.
 
Zuletzt bearbeitet:
Zurück