News Geforce RTX 5090 und Geforce RTX 5080: Die Spitzenmodelle sollen im 4. Quartal den Anfang machen [Gerücht]

An eine Kombination aus 2 kleineren Dies hab ich bislang noch nicht gedacht, glaube ich aber in der Gen (weil es noch nicht notwendig ist immer noch nicht).
Naja, es gibt ja durchaus mehr Erklärungsansätze als bloße Notwendigkeit. Ein Dual-DIE-Aufbau kann auch schlicht und ergreifend günstiger sein. Also in der praktischen Fertigung wird das sogar ziemlich sicher der Fall sein:
Bei B200 sind es ja zwei Chips mit ~800mm² und damit jeweils Chips am ReticleLimit. Da ist eindeutigerweise, wie du auch schon gesagt hast, der Dual-DIE-Aufbau notwendig. Eine Kostenfrage stellt sich nicht, es geht schlicht und ergreifend nicht anders. Aber: Das ist natürlich insgesamt teuer.

Mal hingegen ein Szenario zum Sparen von Geldern durch DualDIE, jetzt einfach ausgegangen vom AD103 mit seinen 379mm² vs. 609mm² vom AD102: Wahrscheinlich sind (bei ähnlicher Chipqualität) bereits zwei AD103er günstiger zu haben als ein AD102er. Einfach ausgegangen von den gängigen Rechnern bzgl. Defektrate und Ausbeute bei Wafern. Günstiger als ein hypothetischer AD100, der einfach ein verdoppelter AD103er gewesen wäre und das ReticleLimit ziemlich ausgereizt hätte, ist er allemal.
Wieso hat es Nvidia nicht gemacht? Na, weil sie noch keinen Dual-DIE-Aufbau entwickelt hatten. Der wurde jetzt aber anscheinend entwickelt --- und entsprechend naheliegend ist es auch, ihn noch ein weiteres Mal (in abgespackter Weise) zu verwenden.

Diese Aufstellung würde es attraktiv machen, eben allen Fokus auf den GB203 zu legen. Vollausbauten würden in die 5080 wandern, teildefekte Chips würden für die 5090 verwendet werden. Der volle Verbund aus zwei GB203ern könnte sowohl (wie schon erwähnt) für eine neue Titan-Karte verwendet werden, als auch als in (vergleichsweise) in Masse hergestellter Lückenfüller für den AI-Markt.
Den einzigen Performancesprung den ich erwarte ist in Sachen Raytracing:
Während die 4090 so pi mal Daumen 75% mehr Raster-Hardware hat wie die 4080 bringt sie davon nur 30% auf die Straße. Entweder ein Bottleneck oder Rastern skaliert nicht mehr. Dann ist man also am Ende angelangt und es hilft eigentlich gar nichts mehr, mehr Rasterleistung zu verbauen. Sehr wohl aber mehr RT Units, die aktuell eh nur einen sehr kleinen Teil des Chips "fressen", hier ist also schnell Leistungssteigerung möglich
Ich gehe schwer davon aus, dass gute Skalierung bei Raytracing weiterhin gegeben sein wird. Da bin ich voll bei dir. Bzgl. Rasterizer: Keine Ahnung. Wir haben ja bislang mit der 4090 nur einen sehr harten Salvage vom AD102 im Rasterizer-Einsatz gesehen. Kann gut sein, dass ein Vollausbau oder ein merkwürdiger Mischmasch (insbesondere mit vollem Cacheausbau) die Probleme nicht hätte.
 
Nimm es mir nicht übel - aber das ganze is schon ein wenig durch die Nostalgie-Brille betrachtet, oder? Zu der Zeit war spätestens alle 2 Jahre neue Hardware fällig - der Zeitraum ist deutlich größer geworden (mit deutlich höherem Wiederverkaufswert der "alten" Hardware).
Genau das, sowas wie meine 1080ti die 7 Jahre durch durchhält wäre damals undenkbar gewesen.
Dachte schon die 5 Jahre meiner HD7970 wären lang gewesen aber sowas ist schon krass.
Wenn eine 5080/90 wieder ähnlich lange durchhält egalisiert sich der Anschaffungspreis dann auch irgendwann.
Ist jetzt nicht so geil auf einen Schlag soviel auszugeben aber wie damals alle 2 Jahre die Grafikkarte zu wechseln weil wirklich gar nichts mehr geht kommt am Ende aufs Gleiche raus.
 
mcm wird es bei nvidia nicht geben bis a18 node (2032)
Der Grund liegt an directx und das nvidia derzeit keine Lösung hat für die chip zu chip Kommunikation ohne Latenz.
Das blaclwell b100 so eine Lösung hat liegt daran das man keine api braucht und es für rein compute ausgelegt ist
darum das Modell mit 2 gb100 chips
Die presentation handelte zu 90% über Ai und der viertel und achtel fp perf
Daraus erkenne ich keine Lösung für das Latenzproblem wenn 2 chips verbunden werden.
 
Ich gehe jetzt mal nicht davon aus, dass die Leistung der 5000er Serie soviel stärker sein wird.

Die Grafikkarten werden "nur" in 3nm gefertigt.

Die exorbitanten Leistungssteigerungen sind wohl einzig auf Raytracing oder DLSS zurückzuführen.

Wo soll denn da ein großer Leistungssprung herkommen?
 
Also meine Geforce FX5700 war für 150€ zu bekommen.
Die Radeon 9600 auch für den preis grob.
Ich hatte auch eine Radeon X800GTO die auch keine 200€ gekostet hat.
2009 hatte ich die erste 40nm Graka der Welt, die Radeon HD4770. Neupreis bei Release 199€.
Meine damaligen Karten wie Ti 4200, 5900 XT oder GT 6600 waren alle grob um die 250€ wenn ich mich recht erinnere, erst die 7900GT 512MB war ein starker Preissprung nach oben und die 8800 GT war wieder günstiger. Teuer ging aber auch früher schon wie die GeForce 3 zeigt und 2012 gab es sogar eine die 1.000€ gekostet hat, schimpfte sich GTX 690, hatte 2 GPU's und verbrauchte 300 Watt, idle power consumption waren 130 Watt. Heute wären das etwa 1.200 -1.250€. Beschwert hat sich damals auch kaum wer, weil sie jeder als Produkt für Enthusiasten akzeptiert hat.
 
"Wie sich diese riesige Lücke zwischen einer Geforce RTX 5090 und Geforce RTX 5080 auswirken könnte, hat VideoCardz in einer entsprechenden Tabelle einmal zusammengefasst. Der Unterschied wäre schlicht gewaltig."

Möchte man bei "gewaltig" auch wirklich noch den Preisunterschied wissen? :devil:
 
Bei einer 5090 Noctua Edition könnte ich schwach werden .
Eine Playstation mit einer 5090 wäre auch der Hammer , dann bekommen wir endlich mal Nextgen Grafik .
 
das würde ich nie machen, vieleicht habe ich auch immer nur das schlechte von menschen erlebt und ordne sie entsprechend ein. allerdings ist es eine katastrophe wenn hardware abraucht, die kann dabei noch mehr mit nehmen. hinzu kommt natürlich das ich dinge kaufe um sie zu benutzen und nicht um zu zu sehen wie sich zerlegen. stichwort pflege und vorallem übertakten.

ich ziehe da immer eine zotac vor, die bieten mir als erstkäufer eine 5 jahres werksgarantie.
Na ja es kommt drauf an. Ich schau mir das Vor Ort an als Test. Dann wird ein wenig Belastungstest gemacht und wenn das passt und schaut, wo die Karte Verbaut ist sehe ich da kein Großes Problem. Wenn die prime95 aushält ohne abzurauchejln sollte perse alles in Ordnung sein finde ich. Dann noch kurz nen Spiel rein um den graka speicher voll zu ballern das dauert max ne Stunde. Und wenn man nett fragt hat das bis jetzt bei mir jeder mitgemacht. 1 3070 und zwei komplett PCs mit je einer 3060 gekauft auf eBay Kleinanzeigen und die laufen seit 2 Jahren Tip top 😁
 
Meine damaligen Karten wie Ti 4200, 5900 XT oder GT 6600 waren alle grob um die 250€

Das war der Releasepreis 2002. Gut ein Jahr später im August 2003 holte ich mir eine für exakt 99 Euro (Amazon, deshalb kann ich nachschauen im Bestellungs-Archiv). Die war übrigens trotzdem schneller als die 1000-Mark-GeForce 3 zwei Jahre davor -- wer wollte, konnte sich schon immer preislich austoben. Zwang dafür bestand nicht. Die hier angeblich so schnell veralteten Celerons und Durons machten in Spielen sowohl Pentium II als auch Athlon gar Konkurrenz im gleichen Hause, das würde AMD und Intel heute niemals mehr passieren. Genau wie Nividas 8800GT, die für einen Bruchteil des Preises einer um ein Vielfaches teureren 8800 GTX Konkurrenz machte. Ich bezweifle stark, dass selbst RTX 4080-Performance so bald im Einstiegs-Mainstream ankommt. Die Kollegen hatten kürzlich mal nachgeschaut, was sich bei der 60er-Reihe in den letzten Jahren so an Plus getan hat. Plotspoiler: Nicht mehr arg viel. https://www.computerbase.de/2024-03...eforce-gtx-1060-rtx-2060-3060-4060-vergleich/

Die letzten 15-20 Jahre habe ich generell ~500 Euro-600 für GPUs ausgegeben. Da war zwar auch eine gebrauchte dabei -- und die aktuelle nutze ich jetzt bald sieben Jahre. Aber: Das dürfte die nächsten 15-20 Jahre schwieriger werden. :ugly: Weshalb ich tatsächlich dezent damit liebäugle, mir einfach eine RTX 5090 zu holen. Wenn ich dann bei Full-HD bleibe (kein Problem damit), dann hätte ich Ruhe bis ins Grab. :D
 
Zuletzt bearbeitet:
ich werde gar keine 5080 / 5090 kaufen ich ersetzte erstmal den unterbau . Was bringt dir ne 5090 wenn du zu wenig ram hast oder deine cpu bei 100 % rennt . Da muss erstmal ne nvme rein von 4 tb für high end Games und dann ein Ryzen 9900 X 3D mit 12 kerne und 64 gb ram . Ich behalte meine karte solange es geht ...... ich brauch erstmal nicht s neues .....

P.S zumal ich kein bock hab erstmal 15 min zu warten bis die matrix welt aufgebaut ist und das ist ein cpu , ram und nvme problem . Und sollte Crysis 4 und witcher 4 nicht laufen pech ich muss nicht alles auf max zocken und zahl bestimmt keine 3k € für ne 5090
 
Informationen belegt mit Quellen. Sehr gut PCGH! Nicht irgendwelche dämlichen angeblichen Leaks von irgendwelchen Flachpfeifen. Weiter so danke!
 
Ich stelle mir halt nur gerade die Frage der Sinnhaftigkeit einer 5090. Ich habe aktuell eine 4090 mit 5800 X3D und spiele alle spiele in UWQHD Mit DLSS und ggf. Frame Generation capped bei 120FPS. Aktuell macht es keinen Sinn.
 
das ist nmicht ganz richtig, früher war es ab 10 kwp, scheint sich geändert zu haben, allerdings nur eine neue grenze. und ab dieser grenze musste steuern zahlen, auch bei 100% eigennutzung. leider.
Ich habe anstelle der Backplate eine angepasste kleine Solarplatte an die Hinterseite der Grafikkarte verbaut.

Der PC befindet sich als Wandcomputer direkt gegenüber dem Fenster. Die Sonne scheint frontal auf den PC. Die Grafikkarte ist über ein Riser Kabel Richtung Panorama Fenster ausgerichtet. Während den Sonnenstunden werden so konstant 20-30 Watt eingespeist. Im Sommer sind das 4-6 Stunden.

Die Kosten hierfür halten sich in Grenzen, vorrausgesetzt ein Riserkabel und der offene Aufbau über ein Wandgehäuse ist schon vorhanden (60€). Gerne sende ich mal Fotos in das Forum, sowie Bauanleitungen und die hierfür benötigten Teile. Oder ich veröffentliche die Fotos, wenn PCGH wieder die ausgefallensten PC´s sucht.

Cool wäre es, wenn das gesamte Wandgehäuse mit Solarzellen bestückt wäre. Außerdem wäre ein kleiner Batteriespeicher ein Ziel, der die Energie speichert, wenn der PC aus ist und bei Nutzung wieder abgibt. Daran arbeite ich noch.
 
Zuletzt bearbeitet:
Ich stelle mir halt nur gerade die Frage der Sinnhaftigkeit einer 5090. Ich habe aktuell eine 4090 mit 5800 X3D und spiele alle spiele in UWQHD Mit DLSS und ggf. Frame Generation capped bei 120FPS. Aktuell macht es keinen Sinn.
Gibt bestimmt Leute die noch keine 4090 haben, für die könnte sich eine 5090 lohnen. Sie wird auf jeden Fall leistungsfähiger, kann gleiches wie eine 4090 abliefern bei weniger Leistungsaufnahme. Nett für Silentfanatiker die nicht das Letzte aus der Karte holen und nicht auf Wakü stehen.
 
Als ob ihr FPS-verwahrlosten Frischlinge noch wüsstet, was Bottlenecks sind. :D

Anhang anzeigen 1457608
Vorsicht.
Ich hab Doom gespielt auf einem IBM Laptop (486SL), das Monochromdisplay ist ab 10-15 fps so verwischt, dass es eh ein reiner Trip war.
Und Doom lief auf kaum einer der Konsolen besser und ich habs auf fast allen gespielt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück