News Geforce RTX 5090: Gerüchte versprechen bis zu 24.576 Shader und 32 GiByte GDDR7-Grafikspeicher

Wenn eine 5090 mit den Änderungen auf 70% mehr Leistung als die 4090 kommt, war an der 4090 einiges falsch konstruiert. Denn mit der gleichen Architektur komme ich mit solchen Änderungen auf vielleicht maximal 35% mehr Leistung, wenn man miteinbezieht, wie schlecht die 4090 gegenüber der 4080 performt im Verhältnis zu ihren technischen Daten, und das dann hochrechnet.
 
Dann bitte diese Jahr gegen Weihnachten für 999€, somit habe ich ein besseres Gefühl meine 4090 gerade gekauft zu haben.
 
Wer vermutlich um die 2000€ für die Karte hinblättert, der will etwas mehr, als das, was benötigt wird. Zumal das momentan nur 6GB sind, der Rest ist für die höheren Details.
Wer mehr will kriegt das auch. Bei den Profi-Beschleunigern. Für Consumer gibts schlicht keinen Nutzen und unterm Strich ist es eben eine Consumer Karte. Ich geh davon aus, nVidia verbaut nur das was sie halt müssen und nicht das was andere gerne wollen.

Man kann fast schon seinen Hintern darauf verwetten, dass sie den Stromverbrauch wieder erhöhen werden. Da die Boardpartner schon Karten, mit 600W herausgebracht haben, gilt das als das wahrscheinlichste.
Geh ich jetzt mal nicht von aus, ich denke einfach analog dem was man bei Apple gesehen hat wird einfach die Leistungssteigerung sich in engen Grenzen halten.

Weniger wird es wohl nur geben, wenn AMD leistungsmäßig dauerhaft abschmiert, was ich nicht hoffe.
AMD wird aber abschmieren. Nicht weil ich das will, sondern weil sie das ja selbst schon bekannt gegeben haben. Es wird kein Highend bei RDNA4 geben. Wozu soll nVidia dann also eine 5090 mit 50-80% mehr Leistung konstruieren wenn auch eine 5090 mit 25% mehr Performance als der Vorgänger bei weniger Verbrauch alles nass macht was die Konkurrenz hat und dabei noch sparsamer agiert ?
Soll die 5000 Reihe wirklich erst 2025 auf den Markt kommen ? Ich kann das irgendwie nicht glauben das 2024 gar nichts kommt.
RDNA4 evtl. ? Ansonsten ja, kommt erst 2025. Find ich gut, da hat sich die 4090 direkt zum Start zu holen voll gelohnt. Drei Jahre gediegen profitiert. :daumen: :D
 
Ich prophezeie eine UVP von 3000€ für die 5090, 1800€ für die 5080, 1400€ für die 5070Ti, 1100€ für die 5070 und für das kleine Budget kommt die 5060 für schmale 899€. ;)
Und selbt wenn die 5090 am Ende 3000€ kostet, es wird trotzdem gekauft, denn es ist ja das Beste...
Mal ganz ehrlich, Nvidia könnte dafür sogar 5000€ verlangen und das wäre denen doch total egal.

Wenn die Firma sieht, dass es trotz des Preises gekauft wird, tja was wird dann wohl weiter steigen??

Die Konsumenten sollten da eben anders handeln, aber leider gibt es da wohl welche, die zuviel Geld dafür locker machen wollen.

Pech für euch und Glück für Nvidia.
 
Wenn eine 5090 mit den Änderungen auf 70% mehr Leistung als die 4090 kommt, war an der 4090 einiges falsch konstruiert. Denn mit der gleichen Architektur komme ich mit solchen Änderungen auf vielleicht maximal 35% mehr Leistung, wenn man miteinbezieht, wie schlecht die 4090 gegenüber der 4080 performt im Verhältnis zu ihren technischen Daten, und das dann hochrechnet.

Was soll daran unrealistisch sein? Das ist der Wert, den man bekommt, wenn alle Faktoren miteinander multipliziert werden, minus den üblichen Verlusten. Die 70% wären sehr konservativ.

1,5 mal soviele Shader, mal 1,15% mehr Takt ergibt 1,72, macht 72% mehr. Jetzt geht üblicherweise etwas Leistung verloren, aber das Ding hat ja nicht nur mehr Speicherbandbreite, sondern auch mehr Cache. Also sind die 70% völlig im Rahmen des erwartbaren, so saugt man sich Gerüchte aus den Fingern.

Dann bitte diese Jahr gegen Weihnachten für 999€, somit habe ich ein besseres Gefühl meine 4090 gerade gekauft zu haben.

Was auch immer du uns damit sagen willst...

Soll die 5000 Reihe wirklich erst 2025 auf den Markt kommen ? Ich kann das irgendwie nicht glauben das 2024 gar nichts kommt.

Nach dem üblichen Zyklus wäre etwa September 2024 an der Reihe. So genau wird man es auch bei Nvidia nicht wissen, dann es kann sich immer ein paar Monate verzögern. Die GTX 1000er wurden schon im Mai 2016 eingeführt die RTX 2000er erst im September, es hat sich also um 4 Monate Verschoben.

Wer mehr will kriegt das auch. Bei den Profi-Beschleunigern. Für Consumer gibts schlicht keinen Nutzen und unterm Strich ist es eben eine Consumer Karte.

Wenn man soviel Geld auf den Tisch legt, dann will man auch etwas davon haben. Man kauft sich den Overkill.

Ich geh davon aus, nVidia verbaut nur das was sie halt müssen und nicht das was andere gerne wollen.

Na dann schauen wir in die etwas jüngere Vergangenheit:
GTX 980Ti: maximal wurden gebraucht 3GB, sie hatte aber 6GB (gute Wahl, denn die Fury X hatte 4GB)
GTX 1080Ti: maximal wurden gebraucht 8GB, sie hatte aber 11GB
RTX 3090 maximal wurden gebraucht 12GB, sie hatte aber 24GB
RTX 4090 maximal wurden gebraucht 16GB, sie hatte aber 24GB

Von daher gehst du wohl hoffentlich vom falschen aus. Wobei Nvidia beim VRAM durchaus knausrig sein kann.

Geh ich jetzt mal nicht von aus, ich denke einfach analog dem was man bei Apple gesehen hat wird einfach die Leistungssteigerung sich in engen Grenzen halten.

Nvidia hat, mit AMD, ordentliche Konkurrenz und immer, wenn ein Hersteller starke Konkurrenz hat, dann explodiert der Verbrauch. Bisher ist nicht klar, was AMD bringen wird. Nvidia kann es sich nicht leisten, zu verlieren, also wird man die letzten 10-20% auch noch rausholen und wenn es 600W braucht. Apple hat keine so direkte Konkurrenz, die können sich erlauben, was sie wollen.

AMD wird aber abschmieren. Nicht weil ich das will, sondern weil sie das ja selbst schon bekannt gegeben haben. Es wird kein Highend bei RDNA4 geben.

Ist das mal endlich offiziell?

Bisher ist das nichts weiter, als ein Gerücht, das wohl irgendjemand in die Welt gesetzt hat. Es gibt bisher keine offizielle Bestätigung, korrigiere mich, wenn ich falsch liege.

Wozu soll nVidia dann also eine 5090 mit 50-80% mehr Leistung konstruieren wenn auch eine 5090 mit 25% mehr Performance als der Vorgänger bei weniger Verbrauch alles nass macht was die Konkurrenz hat und dabei noch sparsamer agiert ?

Weil es nur Gerüchte sind. Da ist ungefähr so dämlich, als würde der Weltmeister nicht zum Boxkampf erscheinen, weil das Gerücht umgeht, dass sein Herausforderer nicht erscheint. Wenn er doch kommt, dann war es das mit dem Titel.

Wie gesagt: es ist nur ein Gerücht, für das es keine Bestätigung gibt und auch an der Plausibilität gibt es auch massive Zweifel. Es genauso ein Mist, wie das Gerücht, über das wir hier gerade reden. Dieses Gerücht gab es überigens schon mehrfach. Bei ATI, nach der Pleite, mit der HD 2900XT, bei AMD nach der Pleite mit Vega und ganz, ganz früher zu Zeiten der GeForce 256. Jedes mal hat es sich als falsch herausgestellt.

Von daher ist man bei Nvidia gut beraten, etwas schnelles zu entwickeln, statt seinen Erfolg an ein Gerücht zu Ketten, das wohl irgendjemand erfunden hat.
 
Zumindest war die Info ein Treiber für die 4090. Ich befürchte aber dass 2024 gegen April in Richtung 5000 geht...
der 3nm Prozess ist noch nichtmal am Markt, da erwartest du wenige Monate später schon einen big chip?
Nein, das dauert üblicherweise nach der Markteinführung von Apple mit irgendwelchen Produkten oft 1-2 Jahre
Ich gehe auch noch von 2024 aus, wäre komisch wenn Nvidia seinen Releasezyklus ändert.
kann sein, dass man Ende 2024 noch was bringt, wahrscheinlicher wird nach und nach 2025.
 
1999€? Nehme ich. Ich kann sicherlich meine 4090FE für 1000€ oder mehr verkaufen. Aktuell laufen sie für 1649€ bis 2100€ auf Ebay.

Mit 70% mehr Leistung werde ich meine 4k 120FPS immer halten. Dann habe ich auch noch genug Luft für 2-3 GPU Generationen.
 
Wenn man bedenkt, dass Ngreedia uns einen beschnittenen Top-Chip alias RTX 5090 für 2000€+ vorsetzt und sich Gamer dafür selbst feiern, mal "das Beste" gekauft zu haben,
vergeht mir der letzte Glaube an die Enthusiasten-Community.

Ich verstehe noch die Menschen, die die Karte zum Geldverdienen brauchen, ok!

Aber mal im Ernst: Nvidia hält mit der ultra limitierten RTX 4090 15-20% Leistung zurück und Ihr Kenner im Forum, zu denen ich Anfangs aufgesehen habe, klatscht toll Beifall und legt 2K auf den Tisch... für einen Verschnitt! Und das Argument, dass es ja nix anderes gäbe... doch. Regler bedienen und selbst mit 'ner "Gammelkarten von Böse-AMD" zocken können. Kostet massiv weniger und wäre an Nvidia mal ein Zeichen nicht jeden Scheiß mitzumachen!
Das wäre Charakterstärke.

Auch wenn ich mir im Forum jetzt Feinde mache muss ich sagen:
"Nvidia hat versucht euch zu Konsumsklaven zu erziehen und dabei vollsten Erfolg gehabt".

Das verstehe ich nicht...

Ich habe fertig.
 
Wenn man bedenkt, dass Ngreedia uns einen beschnittenen Top-Chip alias RTX 5090 für 2000€+ vorsetzt und sich Gamer dafür selbst feiern, mal "das Beste" gekauft zu haben,
vergeht mir der letzte Glaube an die Enthusiasten-Community.

Ich verstehe noch die Menschen, die die Karte zum Geldverdienen brauchen, ok!

Aber mal im Ernst: Nvidia hält mit der ultra limitierten RTX 4090 15-20% Leistung zurück und Ihr Kenner im Forum, zu denen ich Anfangs aufgesehen habe, klatscht toll Beifall und legt 2K auf den Tisch... für einen Verschnitt! Und das Argument, dass es ja nix anderes gäbe... doch. Regler bedienen und selbst mit 'ner "Gammelkarten von Böse-AMD" zocken können. Kostet massiv weniger und wäre an Nvidia mal ein Zeichen nicht jeden Scheiß mitzumachen!
Das wäre Charakterstärke.

Auch wenn ich mir im Forum jetzt Feinde mache muss ich sagen:
"Nvidia hat versucht euch zu Konsumsklaven zu erziehen und dabei vollsten Erfolg gehabt".

Das verstehe ich nicht...

Ich habe fertig.

Witzig

Man muß nur die 2000€+ gegen 700€+ austauschen und RTX 5090 gegen GTX 980Ti sowie RTX 4090 gegen GTX 780Ti. Schon fühlt man sich 8 Jahre zurückversetzt.

Mit 70% mehr Leistung werde ich meine 4k 120FPS immer halten. Dann habe ich auch noch genug Luft für 2-3 GPU Generationen.

Cyberpunk 2077 und Pathtracing sagen nein. Da wird man dann mit 25FPS dabei sein, wenn das mit den 70% stimmt.
 
Nvidia hat doch gar kein wirtschaftliches Interesse für die PC-Gamer topaktuelle Entwicklungen zu bringen. Das Geld wird bei AI und Datacenter gemacht. Wenn überhaupt wird das Topmodell halbwegs "dick" ausfallen und locker vierstellig kosten. Es stellt sich nur die Frage, ob es noch eine 1 oder doch eine 2 vor den drei Nullen sein wird. Eher eine 2 weil die Marge ja nicht zu gering im Vergleich zum Business-Bereich ausfallen soll/darf.

Alles andere wird Chipabfall sein und/oder alte Generation als Refresh verwurstet, weil die Lager immer noch voll wie Wumpe sind.
 
Zurück