Geforce RTX 40: Lovelace ab Sommer 2022 in Serienproduktion?

Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.
 
Ja wenn sie dann auch mit minimal Spannung stabil läuft.
Ich verstehe das Problem nicht. Natürlich muss der Takt dann auch runter, händisch. Ich hatte letztens eine 3080 Ti im Einsatz, mit 0,75V lief sie noch mit rund 1,7 GHz, CP 2077 lief damit unter max. Details inklusive Raytracing und DLSS Q sehr flüssig, da kann die 1080 Ti eben nur von träumen. Aber natürlich, vom Werk aus hat die Karte über 400 Watt gezogen, bei mageren fünf Prozent mehr Fps - ohne mich.
 
Man braucht nur etwas besser ausgestattete Custom-3090er mit 400W-Limit nehmen (geht auch noch höher) und speziell bei den 5950X PBO anmachen (jeder macht da PBO an, wenn er unter Render-Volllast mehr als 3GHz sehen will). Schon gehen da konstante 650 Watt ohne sonstige Komponenten durch. Lastspitzen im 20ms-Bereich gerne auch mal kombiniert noch einmal 200 Watt mehr. Kürzere Lastspitzen auch noch mehr. Dann soll das NT natürlich nicht an der Kotzgrenze arbeiten, schwups bis du bei 1.000 Watt, wenn die neuen Generationen CPUs und Grafikkarten noch einmal 200 bis 300 Watt draufsetzen.

Achja, nicht jeder spielt mit einer 3090. Die werden auch zum Arbeiten gekauft, um sinnvoll und vergleichsweise günstig 24 GB VRAM haben zu können.
Was geht denn da beim Zocken durch?

Die Peaks brauchst du nicht erwähnen. Das sind Peaks und nicht Dauerlast. Ein gutes Netzteil mit 600W Dauerlast wird auch mit 20ms Peaks auf 800W locker wegstecken.

Auch bei einer 400W 3090 werden unter Spielelast "nur" rund 550W durch gehen, wenn man die mit einer 5950X PBO kombiniert.

Welche Programme nutzt du denn, die eine RTX3090 und einen 5950X (PBO an) zeitgleich voll auslasten?

Ich würde ein gutes Netzteil auch immer nur so dimensionieren, das es unter Last auch auf über 90% ausgelastet wird. Damit ist man am effizientesten unterwegs.

Also, laut CB liegt ein 5950X System mit einer RTX3080 bei bis zu 490W aus der Steckdose, also so um die 445W aus dem Netzteil. Dann halt 80W mehr für die GPU und man würde bei 525W aus dem NT landen. Was PBO in Spielen ausmacht weiß ich nicht.

Aber über alles wäre ein 600W Netzteil anscheinend angemessen ;)

Bezüglich der Arbeitsgeschichte, bitte ich einmal um Aufklärung. Welche Arbeit hier genannt wird, bei der GPU und CPU an der absoluten Lastspitze laufen und das gleichzeitig.
Und wie repräsentativ wäre dieses Szenario?
 
Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.

Auch ohne Raytracing hat sich der Verbrauch gesteigert. Das Problem ist, dass es jetzt nur noch sehr langsam vorangeht. Früher hatte man, pro Jahrzehnt, eine Leistungssteigerung um den Faktor 1000, wenn es so weiter geht nur noch um den Faktor 5.

Ampere ist, bei gleichem Verbrauch, nur etwa 30% leistungsfähiger als Turing und schon der war schon nicht der hit. Also hat man die OC Keule rausgeholt und das ganze auf etwa 50% aufgepumpt. Ist zwar deutlich besser, nur läßt sich dieser Trick nur begrenzt anwenden.

Wenn es so weiter geht, dann hätten die nächsten Generationen 470W, 630W, 840W, 1100W und im Jahr 2030 wären wir bei 1500W. Irgendwann wir sich das nichtmehr halten lassen.

Die Peaks brauchst du nicht erwähnen. Das sind Peaks und nicht Dauerlast. Ein gutes Netzteil mit 600W Dauerlast wird auch mit 20ms Peaks auf 800W locker wegstecken.

Eigentlich haben fast nur gute Netzteile damit Probleme, schlechte haben meist miese Schutzschaltungen.
 
Ich verstehe das Problem nicht. Natürlich muss der Takt dann auch runter, händisch. Ich hatte letztens eine 3080 Ti im Einsatz, mit 0,75V lief sie noch mit rund 1,7 GHz, CP 2077 lief damit unter max. Details inklusive Raytracing und DLSS Q sehr flüssig, da kann die 1080 Ti eben nur von träumen. Aber natürlich, vom Werk aus hat die Karte über 400 Watt gezogen, bei mageren fünf Prozent mehr Fps - ohne mich.
Du weißt sicher auch, dass sich nicht jedes Exemplar gleich verhält was das stabile Takt/Spannung Verhältnis angeht.
Bei deiner Karte scheint es gut gewesen zu sein, muss nicht heißen dass das bei jeder Karte so ist.
Ich persönlich hätte keine Lust bei einer Karte den Takt soweit zu senken und damit auch die Leistung der Karte bis ich eine für mich akzeptable Leistungsaufnahme erreiche, vorallem nicht wenn ich soviel Geld für die Karte ausgebe.
Wenn man ein gutes Exemplar erwischt dann ist das natürlich etwas anderes.
 
Du weißt sicher auch, dass sich nicht jedes Exemplar gleich verhält was das stabile Takt/Spannung Verhältnis angeht.
Bei deiner Karte scheint es gut gewesen zu sein, muss nicht heißen dass das bei jeder Karte so ist.
In dem BEreich unterscheiden sich die GA102-Karten nicht wesentlich. Klar, eine gute Karte schafft bei Minimalspannung 100 MHz mehr stabil als eine schlechte - aber es ist nicht so dass da irre UNterschiede zwischen den Karten bzgl. stabilem Takt und resultierendem Verbrauch beim UV wären.
1700 MHz bei 800mV und entsprechend deutlich unter 300W macht wahrscheinlich so ziemlich jede RTX3080/90 mit. Bessere Modelle schaffen eben 1800 MHz.
 
Sicher, aber was machen 20 oder 30 MHz am Ende aus? Gefühlt nichts :ugly:

Ich meine, es ist ja nicht so, dass eine andere Karte mit beispielhaften 0,75 Volt plötzlich nur noch 1,4 GHz schaffen würde. Ich habe inzwischen sehr viele RTX'n in der Hand gehabt und getestet, der Takt-Bereich ist fast immer der gleiche, was zählt ist hingegen die Kühlung. Je kühler der Chip ist, desto höher lässt er sich auch mit niedriger Spannung betreiben.

Und so tief musst du nicht mal mit der Spannung herunter, schon 0,9 Volt statt 1.xxx (unterschiedlich je nach Karte) spart mal eben 100 Watt ein, was du beim Spielen nicht mal bemerkst, aber hörst ^^

(Diesmal war Alki zwei Sekunden schneller :stick:)
 
In dem BEreich unterscheiden sich die GA102-Karten nicht wesentlich. Klar, eine gute Karte schafft bei Minimalspannung 100 MHz mehr stabil als eine schlechte - aber es ist nicht so dass da irre UNterschiede zwischen den Karten bzgl. stabilem Takt und resultierendem Verbrauch beim UV wären.
1700 MHz bei 800mV und entsprechend deutlich unter 300W macht wahrscheinlich so ziemlich jede RTX3080/90 mit. Bessere Modelle schaffen eben 1800 MHz.
Wenn das so ist dann ist das ja noch in Ordnung.
Damit hätte ich dann kein Problem.
 
Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.

WHAT?

Die Leistung ist nicht stark gestiegen? Also ich nutzte aktuell selbst noch eine 1070 die dank Optimierung bei 2GHz läuft und dennoch mit dem maximalen FE Powerbudget auskommt, welches für die ganze Karte nur 168W vorsieht. Aber eine 2070 war schon 30% schneller, ohne RT zu nutzen. Ja bei mehr Verbrauch. Dann die 3070 ist so schnell wie die 2080TI .


Die neuen Karten sind Effizienter geworden, denn der Verbrauch sagt erstmal noch nichts über die Effizienz. Erst wenn man die Leistung dazu betrachtet, kann man Rückschlüsse ziehen.

Und ich wünsche mir schon das die Grafik immer besser wird. Also brauche ich auch immer mehr Leistung.

Wie Dave schon schrieb, kann man nach wie vor auch die aktuellen GPUs sehr effizient betreiben und nach Optimierung sogar um welten effizienter als Pascal.
 
Sicher, aber was machen 20 oder 30 MHz am Ende aus? Gefühlt nichts :ugly:

Ich meine, es ist ja nicht so, dass eine andere Karte mit beispielhaften 0,75 Volt plötzlich nur noch 1,4 GHz schaffen würde. Ich habe inzwischen sehr viele RTX'n in der Hand gehabt und getestet, der Takt-Bereich ist fast immer der gleiche, was zählt ist hingegen die Kühlung. Je kühler der Chip ist, desto höher lässt er sich auch mit niedriger Spannung betreiben.

Und so tief musst du nicht mal mit der Spannung herunter, schon 0,9 Volt statt 1.xxx (unterschiedlich je nach Karte) spart mal eben 100 Watt ein, was du beim Spielen nicht mal bemerkst, aber hörst ^^

(Diesmal war Alki zwei Sekunden schneller :stick:)
Ok bei dieser Gen mag das der Fall sein, dann wäre das ja in Ordnung.
Aber bei der kommenden Gen könnte das schon wieder anders aussehen.
Denke das ist bei jeder Chip Architektur die sich deutlich von einander unterscheiden anders.
 
Warum immer das elende Gememme über Verbräuche ? Immer derselbe Schwachsinn. Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten. Genauso wie im realen Leben die Leute über einen Ferrari F8 jammern die selber nur nen Polo fahren (dafür aber 40tkm im Jahr und somit deutlich weniger ökologisch sind).

Bei 60-70% aller Spiele kann meine 3080 locker mit 150-200W betrieben werden und das in 4K und maxed Details. Heisst aber nicht dass ich es mir nehmen lassen will in CP2077 nicht 450W zu verfeuern um so viel wie möglich rauszuholen wo ichs brauch. Das ist schliesslich kein 24/7 Verbrauch sondern eine Momentaufnahme.

Und wenn wir doch schon am verbieten sind, dann gibts ab heute keine beheizten Wohnungen mehr, keine Autos und ÖV und in den Urlaub fliegen hat sich sowieso erledigt. Entweder konsequent gegen alles oder das Maul halten.
 
Ich hoffe dass der Verbrauch nicht weiter steigt, ich halte die 320 Watt der RTX 3080 welche ich derzeit nutze schon als sehr grenzwertig, obwohl es Nvidia geschafft hat die Temperaturen sehr gut unter Kontrolle zu bringen (außer den G5X Vram bei den FE Karten, aber das ist eine andere Geschichte).

350 Watt ist für mich das Maximum was vertretbar ist, eine 450 Watt TDP Karte kommt für micht aktuell nicht in Frage, aber gut, vor vielen Jahren wären 350 Watt auch illusorisch gewesen, ich weiß noch wie damals bei der GTX 480 die 250 Watt TDP ständig kritisiert worden, also offenbar gewöhnen wir uns an höhere TDP's.
 
Eigentlich haben fast nur gute Netzteile damit Probleme, schlechte haben meist miese Schutzschaltungen.
Stimmt, im Multi-Rail-Betrieb hat meine Karte mein Dark Power Pro zwischendurch einfach mal abgeschaltet. Ja die Karte hing an zwei Rails.
Seitdem ich auf Single-Rail umgeschaltet habe ist das nicht mehr passiert, aber da packt man sich erstmal schon an den Kopf... :ka:
 
Noch ein Jahr bis zum next GPU Generation und ich hab immer noch keine aktuelle GPU zum halbwegs vernünftigen Preis ergattern können.Das ist ein Trauerspiel mit dem aktuellen GPU Preisen.Habe gehofft das sich das einigermaßen nach unten korrigieren wird,was anfangs vor einigen Monaten auch war.Sind wieder einige Preise gestiegen z.B. bei der RX 6800(XT) bei MF.Wer die Preiseentwicklung mitverfolgt weiss was ich meine.Dann will ich mal hoffen das meine 4 Jahre alte 1080GTX nicht verreckt.Vielleicht wird,s auch eine Intel GPU in nähsten Jahr zum Ende des ersten Quartals.Wenn ich bis dahin keinen GPU zum halbwegs vernünftigen Preis bekomme.Für mich spielt die Watt/Leistung von einer GPU eine große rolle.Und das bei einem WQHD Auflösung ist die 6800er (non XT) das vernümpftigste.
 
Warum immer das elende Gememme über Verbräuche ? Immer derselbe Schwachsinn. Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten. Genauso wie im realen Leben die Leute über einen Ferrari F8 jammern die selber nur nen Polo fahren (dafür aber 40tkm im Jahr und somit deutlich weniger ökologisch sind).

Bei 60-70% aller Spiele kann meine 3080 locker mit 150-200W betrieben werden und das in 4K und maxed Details. Heisst aber nicht dass ich es mir nehmen lassen will in CP2077 nicht 450W zu verfeuern um so viel wie möglich rauszuholen wo ichs brauch. Das ist schliesslich kein 24/7 Verbrauch sondern eine Momentaufnahme.

Und wenn wir doch schon am verbieten sind, dann gibts ab heute keine beheizten Wohnungen mehr, keine Autos und ÖV und in den Urlaub fliegen hat sich sowieso erledigt. Entweder konsequent gegen alles oder das Maul halten.
Du fängst grauenvoll an, mit deinem Schubladendenken "Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten"... klingt schon fast wertend ;)

Aber Recht hast du am Ende, es bedarf keiner Reglementierung des Verbrauchs. Jeder hat es selber in der Hand seine Hardware effizient zu nutzen.
 
Die Preise von "früher" werden nie wieder kommen, selbst wenn die Liefersituationen wieder normal sind und alles wieder ab Lager da ist. Denn die Krise hat auch gezeigt dass der Markt bereitwillig das doppelte und dreifache zu zahlen bereit ist für eine neue Grafikkarte. Das werden die Hersteller garantiert nicht liegen lassen...

davor habe ich auch "angst"
klar zocke ich gerne und leistung darf auch kosten - aber wenn eine mittelklasse karte (aktuell die 3060) 700€ kostet, dann läuft was falsch
nicht als könnte ich es mir nicht leisten, aber sowas will ich mir einfach nicht leisten
aber wie du schon sagst - ob die hersteller so eine gewinnspanne liegen lassen wollen?
es wäre halt nur schwer zu argumentieren, warum dem so ist, wenn es keine knappheit mehr gibt
jedoch wird es wohl immer leute geben, die alles zahlen - schlecht für, die sowas nicht unterstützen
 
350 Watt ist für mich das Maximum was vertretbar ist, eine 450 Watt TDP Karte kommt für micht aktuell nicht in Frage, aber gut, vor vielen Jahren wären 350 Watt auch illusorisch gewesen, ich weiß noch wie damals bei der GTX 480 die 250 Watt TDP ständig kritisiert worden, also offenbar gewöhnen wir uns an höhere TDP's.

Meine Voodoo 3 3000 hatte eine Stromaufnahme von 16W. Die damals verrissene 5800 Ultra schon 50W.

Wenn beide Hersteller auf Augenhöhe sind, dann explodiert die TDP.
Kan man nicht pauschal so sagen, denn es hängt sehr stark an den einzelnen Netzteilen.

Dann nenn doch mal ein paar Chinaböller mit guten Schutzschaltungen.

Wobei mich mein Rombutech damals positiv überrascht hat, als es sei bei Überlast abgeschaltet hat. (auch wenn es dann etwas nach Fön gestunken hat).
 
davor habe ich auch "angst"
klar zocke ich gerne und leistung darf auch kosten - aber wenn eine mittelklasse karte (aktuell die 3060) 700€ kostet, dann läuft was falsch
nicht als könnte ich es mir nicht leisten, aber sowas will ich mir einfach nicht leisten
aber wie du schon sagst - ob die hersteller so eine gewinnspanne liegen lassen wollen?
es wäre halt nur schwer zu argumentieren, warum dem so ist, wenn es keine knappheit mehr gibt
jedoch wird es wohl immer leute geben, die alles zahlen - schlecht für, die sowas nicht unterstützen
Ich persönlich glaube gar nicht, das so unfassbar viele, zu so absurden Preisen gekauft haben. Klar wurde immer noch gut gekauft, aber eben bei weitem nicht so, als wenn wir die UVP Preise dauerhaft gesehen hätten und die Verfügbarkeit perfekt gewesen wäre.

Ich denke, die Preise werden weiter steigen, aber nicht so schnell wie befürchtet.

Aber selbst wenn, dann setzt man eine Runde aus und bekommt, dann ja die Leistung die man haben wollte eine Preisstufe niedriger.
Meine Voodoo 3 3000 hatte eine Stromaufnahme von 16W. Die damals verrissene 5800 Ultra schon 50W.

Wenn beide Hersteller auf Augenhöhe sind, dann explodiert die TDP.


Dann nenn doch mal ein paar Chinaböller mit guten Schutzschaltungen.

Wobei mich mein Rombutech damals positiv überrascht hat, als es sei bei Überlast abgeschaltet hat. (auch wenn es dann etwas nach Fön gestunken hat).
Es ging um die guten NT die alle auslösen ;)
 
Zurück