News Geforce RTX 5090 und 5080: Welche Blackwell-Grafikkarte macht den Anfang? [Gerücht]

Wer soll Das bezahlen
Wer hat so viel Geld
Wer hat so viel Pinke Pinke
Wer hat Das bestellt?

Vielleicht fangen Sie zur Abwechslung mal mit einer vernünftig angebundenen Mittelklassekarte mit ordentlich Vram zu humanen Preisen an? Man weiß es nicht
Gruß Yojinbo
 
Wenn die 5090 32 GB hat, was schon kolportiert wird, müsste die 5080 mit
24 GB daherkommen. Alles andere macht auch keinen wirklichen Sinn.
Eine RTX3080 mit 10 GB oder eine 3070 oder 4060Ti mit 8 GB macht auch keinen Sinn ;-)

Eine 5080 mit weniger Speicher als eine 3090? Schwer vorstellbar.
So wie ne 2080 weniger als ne 1080Ti hatte? Oder eine 4080 weniger als ne 3090 hatte? Warum sollte ne 5080 jetzt nicht weniger als ne 4090 haben? Das ist nicht schwer vorstellbar sondern seit Jahren die Regel :ugly:

Ich weiss nie wo diese Zahlen herkommen? Klar gibt es 4090er die man maximal mit 600 Watt takten kann, aber die meisten haben nur einen 450 Watt anschluss.
Die Zahl kommt daher, dass ein großer Blackwell mit 192 statt 128 Shadern im gleichen Fertigungsprozess mehr Leistungsaufnahme haben muss als eine 4090 wenn man nicht die Taktraten massiv zurückschraubt, das ist blanke Physik. Und der Stecker darf 600W. Also muss das Ergebnis irgendwo zwischen 450 und 600 liegen. Tendentiell eher Richtung 600 - das war schon bei der nie erschienenen RTX4090Ti der Plan wenn man sich die Kühler davon ansieht die es schon gegeben hat.
Übrigens waren 600W auch schon in der Designphase der 4090 der Plan, deswegen gibts die Riesenkühler der Boardpartner und den neuen 600W-Stromstecker. Es war nur am Ende nicht nötig da AMD nichts liefern konnte und der Nvidia-TSMC-Node wohl etwas besser als erwartet ausfiel.

Bei allem über 2.500 Euro bin ich ich raus.
Für ne 5090? Siehs mal als gesetzt an. Alles unter 2499$ würde mich wundern. Ohne Konkurrenz kann NV hier frei den Preis nach oben diktireren - oder, wie schon gesagt, die Karte einfach gar nicht für Spieler bringen und im Profisegment 25.000+$ verlangen.
 
So etwas erschreckt mich nach ca. 1337 Artikeln und Videos zum Thema auch immer wieder, aber wir machen einfach weiter mit der Aufklärung. Btw, das neueste Werk zum Thema kommt von @PCGH_Phil:
Mach sowas mal in english, dann kann man das auch mal sharen. PCGH und 3Dcenter sind die einzigen deutschen Seiten die ich nutze.. ^^

VRAM ist einfach irgendwie zu abstrakt für die Leute. RAM scheint man grob zu verstehen und man weiß auch wo das im taskmanager steht. ^^ Aber VRAM? "What is dat denn?" - "Ich weiß gar net wieviel meine Karte hat." Dann kommt anderer Nutzer "ich hab ne 3060 8GB, kann das ohne probleme spielen!".

Die Leute verstehen VRAM nicht.
 
Vergiss es. :-) 8K ist utopisch, denn es handelt sich um viermal so viele Pixel wie 4K-UHD, sodass man realistisch nur ~1/3 der UHD-Fps herausbekommt.

MfG
Raff
Ah, man wird doch wohl träumen dürfen :). Man darf nicht vergessen, das die 1080er damals vom Marketing als "4k" Grafikkarten beworben wurden. Mit der 30er Serie war es dann soweit. Ähnliches beim Raytraycing: Mit der 20er Serie beworben, mit der 40er wurde es brauchbar.

Fairerweise muss man auch sagen: Wir haben nicht mehr die riesigen Sprünge bei den Auflösungen wie in den 2000ern. Von 1024x768 bei einer X700 Pro mit 128 MB Anno 2004 (erste eigene Grafikkarte) mit einigen Zwischenschritten zu einer AMD 5700 mit 2GB wegen des Umstiegs von 720p auf Full HD, dann zu einer GTX 980 (4 GB), die zu einer RTX 2080 (8 GB, da bin ich auf WQHD umgestiegen) wurde und jetzt die 4080 Super (16 GB).

Full HD hatte sich um ca. 2006-2007 einigermaßen etabliert (ich kann mich noch an die PCGH Umfragen damals erinnern) und wird erst jetzt, knapp zwanzig Jahre später, von WQHD bzw. 4K abgelöst.

Abseits von Simulatoren und schlecht optimierten Spielen (ja, Jedi: Survivor, du bist gemeint) fallen mir einfach keine Gründe ein, warum ein Spiel mit aktuellen und letzten Generation an Hardware nicht bei 4K flüssig laufen sollte - 8k ist wie du schon beschrieben hast in weiter Ferne und trotz des verzweifelten Marketings der Hersteller - immer noch ein absolutes Nieschenprodukt, genau wie VR. Raytraycing ist mit der 40er Serie endgültig erwachsen und somit wirklich brauchbar geworden. Somit bleiben eigentlich nur noch mehr Details und da muss wiederum die Konsolenhardware mitspielen.

Außerdem: Die Grafikengine ist nur auch nur eine Grafikengine. Wenn ich mir Helldivers 2 anschaue, welches auf einer modifizerten Stingray Engine basiert, die gar nicht mehr von Autodesk unterstützt wird und mir dann einige UE 5 Titel anschaue (The Day before nicht mit einbezogen, dass Ding ist ein Witz), dann sieht Helldivers 2 dennoch vom Gesamtkonzept her stimmiger aus. Was bringen mir die absolut besten Beleuchtungs- und Shadertechnologien, wenn sie absolut bescheiden implementiert sind und das Gesamtergebnis eher verschlimmern anstatt zu verbessern?

Ende vom Lied: Marketing wird bestimmt irgendetwas mit 8K sagen, aber wie du und zahlreiche andere hier im Forum auch schreiben: Das liegt noch in sehr weiter Ferne.
 
Und der Stecker darf 600W. Also muss das Ergebnis irgendwo zwischen 450 und 600 liegen.
Ich hoffe nicht. Mein 750W Netzteil hat beim Test der 600W auf der 4090 sehr aufgeheult.
Heizen tue ich heute schon mit der GPU, meine Heizung im Zimmer hat gerade mal 500W (kleines Zimmer) :D
Ich werde so oder so die Karte undervolten, wenn es geht.
Vergiss es. :-) 8K ist utopisch, denn es handelt sich um viermal so viele Pixel wie 4K-UHD, sodass man realistisch nur ~1/3 der UHD-Fps herausbekommt (skaliert idR nicht linear, aber heftig).
Sag es nicht. Man wird in 8k dann ja auch DLSS Ultra-Performance nutzen mit 1080p als Renderauflösung. :D
Nvidia hat ja schon mit der 3090 dafür beworben :ugly:
 
Ich habe hier schon "wilde" GPU Wechsel gesehen - so unwahrscheinlich finde ich das nicht :>
 
Eine RTX3080 mit 10 GB oder eine 3070 oder 4060Ti mit 8 GB macht auch keinen Sinn ;-)
Naja, die 3080 sollte für 699 Euro verhämmert werden und die 3090 stand schon in den Startlöchern. Und eine 3070 und 4060ti spielen ja in einer anderen Liga,


So wie ne 2080 weniger als ne Titan Pascal hatte? Oder eine 4080 weniger als ne 3090 hatte? Warum sollte ne 5080 jetzt nicht weniger als ne 4090 haben? Das ist nicht schwer vorstellbar sondern seit Jahren die Regel :ugly:
Theoretisch ist das natürlich möglich. Aber 20 GB wäre Imho für eine 5080 das absolute Minimum. Man muss sich schon Morgens den Scheitel mit dem Hammer ziehen um 2024 eine 16GB Karte für viel Geld zu kaufen, die sich direkt hinter dem Flagschiff plaziert. Da fährt man unter Umständen ja mit einer 7900 XTX besser. Für wen wäre die Karte interessant? 3090 Besitzer eher nicht. Das gleiche gilt für 7900XT/X Besitzer. Auch die 4080er Besitzer würden sich schwer tun. Dann müsste die Karte schon relativ Preiswert angeboten werden. Was aber bei NV eigentlich ziemlich ausgeschlossen ist. Aber klar, möglich ist alles.


Die Zahl kommt daher, dass ein großer Balckwell mit 192 Shadern im gleichen Fertigungsprozess mehr Leistungsaufnahme haben muss als eine 4090 wenn man nicht die Taktraten massiv zurückschraubt. UNd der Stecker darf 600W. Also muss das Ergebnis irgendwo zwischen 450 und 600 liegen. Tendentiell eher Richtung 600 - das war schon bei der nie erschienenen RTX4090Ti der Plan wenn man sich die Kühler davon ansieht die es schon gegeben hat.
Übrigens waren 600W auch schon in der Designphase der 4090 der Plan, deswegen gibts die Riesenkühler der Boardpartner und den neuen 600W-Stromstecker. Es war nur am Ende nicht nötig da AMD nichts liefern konnte und der Nvidia-TSMC-Node wohl etwas besser als erwartet ausfiel.
Der Stromanschluss ist sicher das eine, der Verbrauch das andere. Meine 4090 braucht deutlich weniger als meine 3090 bei deutlich mehr Leistung. ( Ich hab nur Corsair 1600i Netzteile, die zeigen den Verbrauch an. Weil ich vor Release gedacht habe, die 4090er ziehen deutlich mehr Strom , hab ich mir die zugelegt. Eine teure Fehlspekulation, wie sich später herausgestellt hat,) Ich glaube kaum, das die neue 5090er deutlich über dem Verbrauch der 3090/TI Reihen liegen. Ein wenig optimiert eher bei der 3090.


Für ne 5090? Siehs mal als gesetzt an. Alles unter 2499$ würde mich wundern.
Da sind wir absolut einer Meinung. Ich befürchte auch das schlimmste. Mal schauen, was die Karte kann und wo es preislich hingeht. Bevor ich mir aber eine 5080 mit 16 GB hole, würde ich lieber die 3090 dann durch eine zweite 4090 ersetzen. Da sollte ja bei Release noch Luft nach unten sein.
Ah, man wird doch wohl träumen dürfen :). Man darf nicht vergessen, das die 1080er damals vom Marketing als "4k" Grafikkarten beworben wurden. Mit der 30er Serie war es dann soweit
Die 3090 ist irgendwie nur eine halbe 4 K Karte. Solange du Titel hast, die die Upscaler unterstützen und/oder mit 60 Frames und ggf mit reduzierten Details zufrieden bist, ist alles Presto. Eigentlich ist es eine TOP-WQHD Karte und mit abstrichen für 4 K brauchbar. Allerdings wurden die Karten dank den Upscalern ja immer schneller. Aber willst du 4K mit RT bei 144 Frames wird auch für die 4090 die Luft schon mal dünn.
 
Zuletzt bearbeitet:
Die 5080 muss so mächtig sein, dass für Nvidia eine 5090 erst mal nicht infrage kommt, das ist einfach nur brutal.
Wenn die Karte echt nur ein 256 Bit Speicher Interface hat und auf Augenhöhe mit der 4090 ist dann mal gute Nacht AMD. Ich denke, Nvidia wird die 4090 auslaufen lassen und diese mit der günstigeren 5080 absetzen, so wie sie es mit der 3090Ti getan haben mal sehen wie die Roten drauf reagieren werden oder ob sie überhaupt reagieren können.
 
Die 5080 muss so mächtig sein, dass für Nvidia eine 5090 erst mal nicht infrage kommt, das ist einfach nur brutal.
Wenn die Karte echt nur ein 256 Bit Speicher Interface hat und auf Augenhöhe mit der 4090 ist dann mal gute Nacht AMD. Ich denke, Nvidia wird die 4090 auslaufen lassen und diese mit der günstigeren 5080 absetzen, so wie sie es mit der 3090Ti getan haben mal sehen wie die Roten drauf reagieren werden oder ob sie überhaupt reagieren können.
Das mit AMD ist im Moment ein ziemliches Trauerspiel. Bei Kauf der 4090 wurden die Käufer verhöhnt, das sie einen stromfressenden Steinzeimonolithen kaufen würden, und am Ende war AMD soweit hinterher, das sie, alles was ging an Power in die 7900er Serie blasen mussten, um überhaupt noch irgendwie Land zu sehen. Jetzt soll der nächste Chip ausgerechnet wieder ein Monolith werden, während NV auf die neue Technologie umsteigt.

Falls sich AMD, wie angekündigt, aus High-End Segment zurückzieht und nicht mehr gegen NV antritt, ist das die maximale Katastrophe. Das bedeutet für die nächsten Jahre garantiert aberwitzige Preise. Die einzige Hoffnung wäre Intel, wobei die preislich auch kein Kind von Traurigkeit sind.

Das einzige was mich hier zuversichtlich stimmt, ist das die wenigsten mehr als 4K brauchen. Und das läst sich ganz ordentlich mit einer 4090, und mit abstrichen auch mit einer 4080S/7900XTX bewältigen.

Von daher braucht niemand aktuell wirklich eine 5090er. Das sah seinerzeit mit einer 3090/3080/6950/6900er ganz anders aus. Da gab es schon noch diverse Defizite.

Mal schauen wie NV diesmal an der Preisschraube dreht.
 
Die Frage ist ja nicht wann die Karten kommen, sondern was sie kosten. :-) Ich könnte mir vorstellen das eine RTX 5080 nicht unter 1500 Euro zu haben ist.:-)
Sehe ich auch als Einstiegspreis an.
Also so eine fetzige 5080 welche die 4090 20-30% leistungstechnisch abhängt und mit mind. 16 GB VRAM... Wuiii wenn da der Preis noch halbwegs erträglich ist, könnte ich schon etwas früher als gedacht schwach werden :D
Das klingt aber jetzt sehr nach ABBA und: "I have a Dream". Wenn ich wetten müste, dann würd ich sagen bestenfalls leicht über 4090er Niveau.
Kaufpreis spielt keine Rolle. Einzig die Differenz zwischen Kaufpreis und späteren Verkaufspreis ist entscheidend. Bei meiner 4090 sieht es derzeit so aus: Kaufpreis 1690€, derzeitiger Wert ca. 1450€. Nutzungskosten über knapp 20 Monate also ca. 250€. Da ich als selbständiger aber die Mehrwertsteuer wieder bekomme, hat mich die 4090 effektiv nur 1420€ gekostet, ich bin also derzeit noch 30€ im Plus.
Das ist der nächste Punkt. Man hat am frühestmöglichen Punkt den maximalen Spielspaß sowie den höchsten Wiederverkaufswert. Alternativ die längste zufriedenstellende Nutzungsdauer. Die 3090 im Zweitrechner läuft seit 11/20 und kann es immer noch gut mit einer 4070/TI/super in 4K aufnehmen. Erst eine TI super zeigt Ihr deutlich die Rücklichter, zumindest solange die 16 GB reichen. Selbst nach 4 Jahren gibt es noch ein paar Euro für die Karte.
Ein Wunder eher nicht, die Gerüchte sprechen aber von rund 3 GHz, also alleine 10-12% mehr durch den Takt. Dann 92 statt 80SM sind nochmal +15%. Wenn NVidia dann noch irgendwo 10% IPC findet haste die 40% zusammen dies braucht um mit ner 5080 die 4090 knapp zu schlagen (1,11 x 1,15 x 1,1).
Wenns nicht reicht wird NV entweder den Beschnitt reduzieren oder die TDP anheben bis es reicht. Eine 5080 die laangsamer als eine 4090 ist wird es mit sehr hoher Wahrscheinlichkeit nicht geben. Den marketingstunt nur mit DLSS4 oder sowas schneller zu sein wäre ein ziemlich hartes Shitstormrisiko^^
Oder sie müsste preislich deutlich unter der 4090 angesiedeln. Was ich aber auch nicht glaube.
 
Zuletzt bearbeitet:
Vergiss es. :-) 8K ist utopisch, denn es handelt sich um viermal so viele Pixel wie 4K-UHD, sodass man realistisch nur ~1/3 der UHD-Fps herausbekommt (skaliert idR nicht linear, aber heftig).


Ich finde dein Feedback toll, denn es lässt mich zur Abwechslung mal wieder in die andere Richtung denken und forschen. Denn normalerweise führe ich Diskussionen mit Leuten, die meinen, dass sie locker mit 12 GiB auskommen und PCGH ständig und maßlos übertreibt. :D Die Wahrheit liegt wohl, wie immer, in der Mitte. Am Ende liefern wir euch gerne alle Daten und Extreme, sodass ihr selbst entscheiden könnt.

MfG
Raff
Jack hat schon recht. Bei mir läuft immer Skype + Aquasuite und verschiedener anderer Kram, den ich immer vergesse auszumachen, weil ich ihn, je nach Game, brauche. Aktuell zeigt die Aquasuite einen Ramverbrauch der Karte von ca 2546 MB an, ohne das Skype aktiv genutzt wird. Mit 24 GB brauch ich mir darum keinen Kopf zu machen, mit 16 vielleicht schon?
 
Wer soll Das bezahlen
Wer hat so viel Geld
Wer hat so viel Pinke Pinke
Wer hat Das bestellt?

Vielleicht fangen Sie zur Abwechslung mal mit einer vernünftig angebundenen Mittelklassekarte mit ordentlich Vram zu humanen Preisen an? Man weiß es nicht
Gruß Yojinbo
Ja und der Weihnachtsmann bringt sie persönlich vorbei! :lol:
Hoffentlich kostet die 5090 15.000€! Sie ist es bestimmt wert! :daumen2:
 
Wenn die 5080 zuerst kommt, dann nur deshalb, weil NV daraus gelernt hat, dass kaum jemand an einer überteuerten so langsamen 80er Karte interessiert ist, wenn er weiß um wieviel langsamer sie ist, als die 90er-Version.

Mal sehen, ob der Unterschied wieder so riesig ist wie bei der 40er Serie.
 
Das klingt aber jetzt sehr nach ABBA und: "I have a Dream". Wenn ich wetten müste, dann würd ich sagen bestenfalls leicht über 4090er Niveau.
Ich werde ja noch träumen dürfen. :D
Ich habe diese Annahme lediglich von einem der Vorredner übernommen, weil sie mir sehr gut gefallen hat.
Wenn wir uns das alle ganz doll wünschen, bringt sie sicherlich der Weihnachtsmann zu einem humanen Preis vorbei. :hail:
 
2.5 Fach hat nichts mit Frame gen zu tun oder Dlss. Weil dann wäre es auch noch Hammer!
Das wird auf einzelne Effekte sein!
Wie lange braucht die neue GPU für den Effekt, dass es dann bei der Gesamten Rechnung was
ganz anderes raus kommt sollte klar sein.

Das wird schon gut zulegen aber es wird kein riesen Sprung.
 
Zurück