News Geforce RTX 5000: Blackwell mit höherer Leistungsaufnahme?

Ich gehe auch davon aus das es mehr als die 450W der 4090 werden, aber 600W halte ich ein wenig zu hoch gepokert. Aber wie du sagst, letztendlich werden es die finalen Specs und Raffs Tests zeigen, was da wirklich dran ist.
 
Mir egal was die im Maximum schlucken sollen.
Undervolten und fertig. Meine RTX 4090 läuft im Schnitt auch mit 320W bei 2-3 weniger FPS.
 
550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
Da bleib ich lieber bei meiner Aktuellen RX6800 von 2020 die dank underclocking nur 1/4 davon schluckt und in Star Citizen dank Frame Gen dennoch 400% schneller läuft als jede RTX 4090. Nvidia kann halt nix.
RTX 4090 lol.jpg

fps RX6800.jpg

577 fps space.jpg

SC 700 Hours average fps.jpg

300 fps Stations average.jpg

Kann ich verstehen bei den Problemen die du hast und hattest.
Ich würde aber eher von Gigabyte weggehen als von AMD
Ich bin AM4 nutzer (Asus X470 Prime) und hatte noch nie Probleme.
Board läuft jeden Tag seit 2018, damals mit Zen+ gekauft, nach 5 Jahren Nutzung dann einen 5800X3D ins board, läuft alles bis heute mit 0 Problemen. Das Board wird noch bis 2028 (AM6) durchlaufen und nach 10 Jahren dann weiter gegeben.
Bei meinen Freunden und Partnerin dass selbe, alle seit vielen Jahren auf AM4, alle 0 Probleme.
Verstehe nicht warum er AM4 Generell verteufelt wenn nur er scheinbar ein seltenes Problem hat.
Guck dir mal meine Bekloppte Speicher Bestückung an, und dennoch Läuft es mit schärferen Timings und OC.
Ram SPD.jpg

5800X3D Ram Timings Final 15 16 16 33 48.jpg

Aber was hat es mit deiner Gigabyte Kritik auf sich ?
Ich wollte evtl mal von Asus weg und hin zu Asrock bei AM6.
Aber von Gigabyte hab ich bisher auch nichts schlechtes gehört.
 
Man sollte immer im Hinterkopf haben, dass die 90er-Karten eigentlich von ihrer technischen Konzeption her keine Grafikkarten für den gemeinen Verbraucher sind. Mit den Karten wird gearbeitet und mitunter Geld verdient. Stromverbrauch ist nebensächlich. Hitzeentwicklung ebenso. Es zählt, dass Projekte möglichst schnell beendet werden können, denn was da an Umsätzen generiert wird, ist ein Vielfaches vom EK dieser Karten.

Leider glaubt der geldschei.ßende Kevin er müsse eine solche Karte unbedingt haben und in sein Bling-Bling- Glasgehäuse einbauen. Das wiederum spiegelt die Konzeption des Marketings für diese Grafikkarten wider. Was früher noch namentlich eindeutig durch den Begriff "Titan" abgegrenzt war, ist nun Teil der normalen Nomenklatur der Geforce-Karten. Und das wiederum eröffnet eine ganz andere Zielgruppe, die der Wale und Poser.
 
@TausendWatt
Nein ich bin im Star Citizen fieber :D
Gestern und vorgestern jeweils 7h gezockt, am Samstag und Sonntag werden das auch schonmal mehr.
14h Montag und Dienstag zusammen.jpg

@Pokerclock
Nvidia Profitiert von diesen Rich Kids. Zum Nachteil der Umwelt.
Eine Geforce 8 8800GTX (Top Modell von 2006) brauchte damals keine 150W.
Eine GTX 1080 brauchte 180W.
Also eine RTX 5090 mit Spekulierten 550W wäre das 4 Fache einer 8800GTX und mehr als 3 Fache einer GTX 1080.
 
Zuletzt bearbeitet:
550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
50€ für 200 Stunden Entertainment sehe ich als günstig an. Darüber hinaus dürften dauerhaft 50 Std./Woche nicht im Ansatz repräsentativ sein.

Nvidia kann halt nix.
Ach komm. Really ? :ugly:

Verstehe nicht warum er AM4 Generell verteufelt wenn nur er scheinbar ein seltenes Problem hat.
Weil er nach eigener Erfahrung ein Problem damit hat und sich nichts davon kaufen kann, dass andere kein Problem damit haben. Logische Schlussfolgerung.
 
Bedenke bei der Rechnung bitte, dass sie nur dann gilt wenn auch wirklich die volle Bandbreite aktiv genutzt wird, also auch tatsächlich beispielsweise 32 GBit/s übertragen werden. Das kommt in der Praxis so gut wie nie vor.
Und wenn du im Spiel tatsächliche 10 GBit/s im Mittel übertragen musst macht GDDR7 das mit deutlich weniger Energie als GDDR6. Nur dann, wenn die vorhandene Bandbreite komplett abgerufen wird würde GDDR7 mehr verbrauchen (aber auch viel schneller sein).

Insgesamt geht die "Spreizung" wie bei allen moderneren Komponenten dadurch nach oben. Früher verbrauchte eine GPU beispielhafte 30W beim nichtstun und 50W unter Last, heute sinds 5W unten und 450W oben. Beim Speicher ists sehr ähnlich: Kleinere und mittlere Lasten werden immer sparsamer, Vollast immer stromfressender - zumindest in absoluten Zahlen, relativ zur Performance steigt die Effizienz.

Bei vRAM würde ich aber im Mittel davon ausgehen, dss mindestens mittelfristig der verbrauch durch GDDR7 sinkt einfach weil der Betriebpunkt wo er am Limit arbeiten muss so schnell nicht erreicht werden wird, speziellen Workload mal ausgenommen.
Ich geh da ja jeweils von Vollast aus ... und da GB202 wesentlich schneller sein sollte, wird der neue Speicher sicherlich auch ausgelastet.

Aber im Teillastbetrieb wird die 5090 sicherlich wesentlich effizienter arbeiten als die 4090.
 
Ich würde aber eher von Gigabyte weggehen als von AMD
Beides. Aber Gigabyte mit 100%tiger Sicherheit, bei AMD schaun mer mal was Arrowlake kann.
Verstehe nicht warum er AM4 Generell verteufelt wenn nur er scheinbar ein seltenes Problem hat.
Weder verteufele ich es generell noch hatte ich nur ein seltenes Problem. Es waren eine zweistellige Anzahl teilweise Bluescreenerzeugender Bugs und himmelschreiender Workarounds - und keines davon war "selten", bei jedem Problem fand man hunderte Treffer auf Google und reddit von anderen die dasselbe hatten. Etwa zwei Drittel der Bugs gehen auf die Kappe von Gigabyte, manche waren aber ein AM4-weites problem bei allen Boards was AMD erst nach Monaten per BIOS-Update fixen konnte.

Wenn du ne zweistellige Anzahl an PCs im Jahr baust und über Jahre immer nur die AM4-Kisten-Besitzer sich mit Problemen und Defekten melden (alleine 2 CPUs hatten nen kaputten IMC nach kurzer Zeit und mussten von AMD ersetzt werden) und die Intel Kisten (bisher!) alle fire&forget waren beeinflusst das die eigenen Entscheidung fürs nächste System einfach. Sogar mein Arbeitgeber hat alle (Hunderte!) laptops der Firma von Ryzen auf Intel umgerüstet weil die so viele Probleme machten bzw Workarounds brauchten. Aber all das ist auch nicht Threadthema. ;-)

Mir egal was die im Maximum schlucken sollen.
Undervolten und fertig.
Das Ding ist halt dass die Grenzen des UVs sich mit nach oben schieben. Eine 4090er kannste auf 300W betreiben mit UV. Wenn eine 5090er angenommen 600W hätte ginge das nicht mehr bzw. dann biste auch mit UV bei 400.

Aber im Teillastbetrieb wird die 5090 sicherlich wesentlich effizienter arbeiten als die 4090.
Relativ gesehen (Performance pro Watt) garantiert, absolut gesehen (Zahl auf dem Stromzähler)... wird man abwarten müssen :-D
 
Die RTX 5000er finde ich gar nicht so interessant. Der GDDR7 kommt jetzt zum ersten Mal zum Einsatz. Ich denke, der größere Sprung wird dann zu den 6000ern werden. Bis dahin hoffentlich auch wieder stärkerer Konkurrenzkampf.
Wobei ich mir durch GDDR7 tolle mobile Geräte vorstellen kann.
 
Zuletzt bearbeitet:
GDDR7 braucht WENIGER Energie als GDDR6X, es sei denn man quält ihn mit Gewalt ans Limit.
Also braucht man mehr Energie, denn eines haben wir doch in den letzten Jahren gesehen, Hardware wird grds. außerhalb des SweetSpots eingesetzt.

Vermute die 5090 wird nicht mal das Flaggschiff, denke die wird bei 1600-2000€ landen und es wird für 2,5-3k noch sowas wie eine Titan AI mit dem Vollausbau noch kommen.
Die 5090 wird schon mangels Alternative für 3000 EUR übern Tisch gehen, es sei denn man generiert nahezu keine Mehrleistung im Rastern.
und die Intel Kisten (bisher!) alle fire&forget waren beeinflusst das die eigenen Entscheidung fürs nächste System einfach.
Ich nenne das selektive Wahrnehmung!

Es sind bei Intel ja nicht hunderte, sondern abertausende News auf Reddit und Co. über defekte Kisten vorhanden!

Sogar mein Arbeitgeber hat alle (Hunderte!) laptops der Firma von Ryzen auf Intel umgerüstet weil die so viele Probleme machten bzw Workarounds brauchten.
Auch hier nochmal der nette Hinweis, behaupten alleine reicht nicht. Du findest hier mehr Probleme bei Intel als bei Ryzen, dabei ist der Anteil Ryzen hier im Forum wahrscheinlich überproportional hoch. Belege deine Probleme, die deines Arbeitgebers doch einfach mal!
 
Es sind bei Intel ja nicht hunderte, sondern abertausende News auf Reddit und Co. über defekte Kisten vorhanden!
Die Wahrnehmung bei mir ist
1.) Ich baue momentan 2/3 AMD und 1/3 Intel PCs
2.) 100% aller Reklamationen über Probleme und Defekte stammen von den AMD PCs.
3.) Meine eigene Erfahrung mit meinen eigenen PCs (einer AMD, einer Intel) sind die gleichen.

Übrigens muss ich weder meine Wahrnehmung noch meine deswegen getroffenen Entscheidungen in einem Forum rechtfertigen/belegen/beweisen/..., erst recht nicht in einem Thread, in dem es um die Leistungsaufnahme kommender Grafikkarten geht.

--> B2T bitte.
 
Eine Geforce 8 8800GTX (Top Modell von 2006) brauchte damals keine 150W.
Eine GTX 1080 brauchte 180W.
Also eine RTX 5090 mit Spekulierten 550W wäre das 4 Fache einer 8800GTX und mehr als 3 Fache einer GTX 1080.
Eine RTX 4090 ist rund 6500 mal so schnell wie ein 8800GTX, die Leistungsaufnahme hat sich, zum Glück, aber bei weitem nicht so stark entwickelt.
Der Vergleich ist also ziemlicher Humbug.
 
550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
Da bleib ich lieber bei meiner Aktuellen RX6800 von 2020 die dank underclocking nur 1/4 davon schluckt und in Star Citizen dank Frame Gen dennoch 400% schneller läuft als jede RTX 4090. Nvidia kann halt nix.





Aber was hat es mit deiner Gigabyte Kritik auf sich ?
Ich wollte evtl mal von Asus weg und hin zu Asrock bei AM6.
Aber von Gigabyte hab ich bisher auch nichts schlechtes gehört.
Bleib mir weg mit deinem Nvidia hate, und deinen Starcitzen focus.
Das Game ist und bleibt eine Große Beta, und ist absolut nichts sagen was die Leistung einer Hardware betrifft. Außer man Spielt nutzt wirklich nur diese Anwendung, dann kann man ja gerne auf ryzen 9000 und Radeon GPUs setzten.
Für den Rest zählt die Leistung im Spiele mix und dort ist die 4090 der King. (ob man das braucht ist die andere Frage).

7800xt und 4070 sind sehr gute Karten mit dem jeweiligen Focus der Hersteller.
Und für rund 250€ gibt es die 7600xt mit 16Gib eine Karte die dem Budget Gamer sicher noch 5 jahre halten kann.


Zur Gigabyte sache .
Ich weiß das Alki ein gigabyte Board hat was viele Probleme gemacht hat. Und auch sonst hat Gigabyte bei AM4 nicht den besten Ruf. Was man von AM5 hört klingt das ähnlich.
Ich glaube Gigabyte ist einfach kein AMD Hersteller.
Mein Aorus X570 lief zwar, ok. War was aber RAM oc angeht, und USB-Devices trotzdem nicht gerade Super.
Auch hier im Forum kommt Gigabyte öfter als die anderen Hersteller mit Problemen vorbei.
 
aber ich hab einfach keine Lust im Sommer bei 40°C in der Wohnung zu sitzen weil meine Grafikkarte ein teurerer Heizstrahler ist. Und dafür dann nochmal das gleiche Geld für ne extra Klimaanlage hinlegen
Wenn das Wetter weiter durchdreht haben wir (wie auch in zig anderen Ländern) bald eh überall eine Klimaanlage…ist gar nicht mal als Scherz zu verstehen.

Aber zum Thema:
Es kann doch nicht immer mehr und mehr Power bei uns ankommen und dafür immer weniger Strom verbraucht werden, so funktioniert Physik nun mal nicht.

Irgendwann ist man bei den kleinsten Größen in der Fertigung angekommen und dann geht halt nicht mehr…. Und was dann? Stillstand? Wird nicht passieren, the Show must go on und so.

In 10-15 Jahren werden die Teile halt 1.000W und noch mehr verbrauchen und nicht plötzlich 100W, diese Erwartungshaltung ist (extrem) unrealistisch.
Ab der 7090 oder 8090 wird dann Cloud Gaming immer interessanter für Massen…
 
Zuletzt bearbeitet:
@Nathenhale eine RX 6800 XT ist auch in SC nicht schneller als eine 4090. Der Typ verbreitet den Mist in mittlerweile mehreren Foren und postet immer nur Fotos mit einem Ausschnitt von seinem Monitor. Man sieht ihn nie wirklich spielen.
Selbst die 4070 würde seine 6800 XT deklassieren, aber lassen wir das.
 
Es kann doch nicht immer mehr und mehr Power bei uns ankommen und dafür immer weniger Strom verbraucht werden, so funktioniert Physik nun mal nicht.
So lange du keine Physikalische Grenze erreichst (und da sind wir noch lange nicht) funktioniert das genau so.

Moderne Highend-Grafikkarten haben nicht deswegen einen so hohen Verbrauch weil es physikalisch nicht anders ginge sondern weil der Markt, die Leute und die Wirtschaft dieses Produkt so verlangen (sprich es der breiten Masse Schei*egal ist ob 100W mehr oder weniger auf der Uhr stehen Hauptsache schneller).
Dass man 3D-Performance in Größenordnungen die noch vor 20 Jahren völlig utopisch waren heute mit 5W in nem Smartphone-SoC realisiert zeigt dass es auch anders geht.

Irgendwann ist man bei den kleinsten Größen in der Fertigung angekommen und dann geht halt nicht mehr…. Und was dann?
Darüber kannste dir in 20-30 Jahren mal Gedanken machen, vorher sind wir da nicht am Limit.
Was dann? Andere Potentiale heben was man nebenbei seit Ewigkeiten macht (Mehrkern-CPUs, Stapeln von Dies in CPUs und vor allem NAND, neue Transistorarten wie FinFET, GAA, neue Substrate wie Glas, neue fertigungsmethoden wie Backsidepowerdelivery und vieles mehr) und irgendwann dann andere Materialien (Graphen statt Silizium beispielsweise) oder ganz andere Herangehensweisen (Quantencomputer).

Kurz: Die Entwicklung ist noch lange nicht am Ende, auch wenn historisch gesehen ständig (auch gelehrte) Menschen auftauchen die das nicht erkennen können. 1874 hat schon der Professor vom Studenten Max Planck gesagt "In dieser Wissenschaft [Physik] ist schon fast alles erforscht, und es gibt nur noch einige unbedeutende Lücken zu schließen". ;-)

In 10-15 Jahren werden die Teile halt 1.000W und noch mehr verbrauchen und nicht plötzlich 100W
Ja, werden sie - im Profibereich machen Chips das heute schon - 800W-TDP-Chips sind da nichts ungewöhnliches, hängen alle am großen Wasserkühler. Die reaktion darauf ist, das Wasser praktisch direkt durch die Chips leiten zu wollen irgendwann. Solche Modelle kommen aber eher nicht für den Otto zu Hause.^^
 
Und dafür dann nochmal das gleiche Geld für ne extra Klimaanlage hinlegen (die bei mir baulich ein Alptraum wäre) und ggf. nochmal für ne Custom-Wakü um solche Leistungsaufnahmen auch leise zu kühlen? Nur fürs zocken? Ja ne, lass mal.
Da ist n Denkfehler drin, Kühlschrank auf, Radiator rein, Kühlschrank zu. :ugly:
So kannst du das Geld der Klima sparen und ein 240ger Rad reicht.
 
Zurück