• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 40: Lovelace ab Sommer 2022 in Serienproduktion?

I3uschi

Software-Overclocker(in)
Experten sprechen vom 2. Quartal 2022 bis sich die Halbleiter-Knappheit wieder normalisiert.

Wenn man dem glauben schenken will, dann könnte es ja was werden mit den neuen GPUs!?
Aber wer eine neue GPU zu "normalen" Preisen haben möchte, sollte sich schon gedanklich auf noch 1 Jahr warten einstellen. Einfach nur traurig... :ka:
 

twack3r

Software-Overclocker(in)
Durch Preiserhöhungen schränkt man aber nichts ein, denn wie Du selbst sagst, wer es sich leisten kann, der nimmt es in Kauf. ist das Gleiche wie die CO²-Steuer.... Benzin und Diesel sind teurer, aber es wird deshalb nicht weniger gefahren und somit hat es auch keinen Umwelteffekt.

Außerdem muss man hier nicht immer gleich die Kommunismus- oder Sozialismus-Keule schwingen.

Wir leben auf einem Planeten mit endlichen Ressourcen. Die EU benötigt allein um den aktuellen Lebensstandard zu halten ca. 40% !!!!! der natürlichen Ressourcen. Die USA ebenso (das sogar trotz weniger Einwohner als die EU). das sind schon 80% nur für den "Westen". Wenn China auch nur ansatzweise den Lebensstandard des Westens für alle Bürger erreichen möchte (und sie wollen es) dann brauchen die allein mehr als der Westen. Da kann man sich schnell ausrechnen das dass mit den 100 % ne enge Kiste wird.

Der Bürger allein handelt nicht rational (ich eingeschlossen), das liegt nicht in der Natur des Menschen. Daher wird man nicht drum herum kommen, durch Grenzen - und, ja auch Verbote - den Markt zu regeln.
Alles richtig aber mit ein paar pauschalen Annahmen die im Übrigen voll gegen unseren immer noch bestehenden Gesellschaftsvertrag mit dem mündigen Bürger als zentralem Agenten laufen ist 1. noch keiner überzeugt und 2. auch noch keine Alternative formuliert.

Ich halte Nachhaltigkeit für eine der wichtigsten Triebfedern jeder wirtschaftlicher Veränderung in den nächsten Dekaden, aber gerne ohne dabei alle Bürgerrechte gleich im Voraus aufzugeben. Wird dann nämlich auch schwierig potentielle Unternehmer für das einzugehenden Risiko zu begeistern und da sind wir dann bei Planwirtschaft und Kommunismus.
 

Blackout27

Volt-Modder(in)
18K beim Vollausbau :sabber:
2022 wird spannend im PC Bereich. Auch AMD´s Gerüchte klingen vielversprechend.
Daumen drücken das es halbwegs so stimmt und genug Karten zu kaufen gibt.
 

Incredible Alk

Moderator
Teammitglied
Experten sprechen vom 2. Quartal 2022 bis sich die Halbleiter-Knappheit wieder normalisiert.
Im Januar haben sie auch gesagt das wäre "im Sommer" der Fall. Realität: Die Knappheit in der Industrie ist nochmal weitaus größer geworden. "Normal" wird da dieses Jahr garantiert nichts mehr, das kann ich dir (durch ein paar Infos aus Berufsgründen) versprechen. Das wussten die Experten nebenbei auch im Januar schon (weswegen beispielsweise die Autoindustrie schon mal Kurzarbeit für das ganze Jahr eingereicht hat und immer die Karte zieht wenn mal wieder gar nix an Chips kommt), nur kann man nicht überall alles offen erzählen - kennst ja den Spruch dass die Wahrheit die Menschen beunruhigen könnte.
Wir haben (unter anderem) aus den Gründen auch aktuell Lieferzeiten von 3-4 Monaten was in normalen Zeiten 3-4 Wochen sind. Und ich arbeite in der stahlschaffenden Industrie - wo Mikrochips zwar gebraucht werden aber lange nicht an erster Stelle stehen. Kannst dir ja vorstellen wie das bei Industriezweigen aussieht die sowas viel dringender brauchen.

Wenn man dem glauben schenken will, dann könnte es ja was werden mit den neuen GPUs!?
Aber wer eine neue GPU zu "normalen" Preisen haben möchte, sollte sich schon gedanklich auf noch 1 Jahr warten einstellen.
Die Preise von "früher" werden nie wieder kommen, selbst wenn die Liefersituationen wieder normal sind und alles wieder ab Lager da ist. Denn die Krise hat auch gezeigt dass der Markt bereitwillig das doppelte und dreifache zu zahlen bereit ist für eine neue Grafikkarte. Das werden die Hersteller garantiert nicht liegen lassen...
 

purzelpaule

Software-Overclocker(in)
Alles richtig aber mit ein paar pauschalen Annahmen die im Übrigen voll gegen unseren immer noch bestehenden Gesellschaftsvertrag mit dem mündigen Bürger als zentralem Agenten laufen ist 1. noch keiner überzeugt und 2. auch noch keine Alternative formuliert.

Ich halte Nachhaltigkeit für eine der wichtigsten Triebfedern jeder wirtschaftlicher Veränderung in den nächsten Dekaden, aber gerne ohne dabei alle Bürgerrechte gleich im Voraus aufzugeben. Wird dann nämlich auch schwierig potentielle Unternehmer für das einzugehenden Risiko zu begeistern und da sind wir dann bei Planwirtschaft und Kommunismus.
Bürgerrechte mit Grenzwerten für Stromverbräuche von Geräten etc. zu vermischen ist aber auch ne Hausnummer :ugly:
 

AyC

Freizeitschrauber(in)
Warum aufregen? Ihr habt doch die Wahl! Wenn eine neue Grafikkartengeneration durch Technik 20% effizienter wird und durch ein neues Verfahren (7 -> 5nm) nochmal 30% effizienter wird, dann könnt ihr eben wählen zwischen:

1) Gleiche Leistung mit weniger Stromverbrauch (z.B. 3090 -> 4070)
2) Höhere Leistung mit gleichem Stromverbrauch (z.B. 3090 -> 4080)
3) Höchste Leistung mit höherem Stromverbrauch (z.B. 3090 -> 4090)

Ihr könnt aber nicht 50% mehr Leistung und gleichzeitig halben Stromverbrauch erwarten. Ihr habt die Wahl! Die Hersteller können nur Sachen anbieten.
 

Pokerclock

Moderator
Teammitglied
Wie innerhalb von zwei Generationen von einem 500 W NT über ein 750 W NT ein 1.000 W NT zum Muss für ein Single-GPU-Setup wird bei den Topmodellen kombiniert mit entsprechenden CPUs. Na dann have fun User of Full-Glass-Front-Cases und den Ohne-Dämmung-geht-nix-Faschos. :ugly:
 

derneuemann

BIOS-Overclocker(in)
Kommt drauf an, wo an hin schaut.

Wenn du Lovelace in ein 200-250W Korsett stecken würdest, wäre die Chips aber vermutlich nicht schneller als Ampere.
Viele schreien nach 4K mit 120+FPS oder sogar 8K. Die Leistungssteigerung erreicht man gerade bei MCM aber auch durch den erhöhten Verbrauch. Wenn man den bremst, dann ist der Leistungssprung nur noch minimal und alle schreien wieder auf, weil die neue Gen nur 10-30% schneller als die alte ist.
Das hatten wir schon bei Pascal und Turing.
Hallo,


Wenn man bei AMpere zum Beispiel schaut, wie sehr sich die RT Leistung gesteigert hat, oder die Leistung in Titeln mit massiven RT Einsatz, dann st die Effizienz schon relativ gut gestiegen.

Egal, der Verbrauch ist völlig egal, sofern die Effizienz steigt. Den Rest entscheidet der Käufer für sich selbst.

Es braucht nicht für alles Gesetze.
Ansonsten fordere ich eine Fleischgesetz, Salz, Zucker, ein echtes Alkohol und Zigarettengesetz.
Aber mehr als die 5600XT.
Nicht bei selber Leistung ;)
Wie innerhalb von zwei Generationen von einem 500 W NT über ein 750 W NT ein 1.000 W NT zum Muss für ein Single-GPU-Setup wird bei den Topmodellen kombiniert mit entsprechenden CPUs. Na dann have fun User of Full-Glass-Front-Cases und den Ohne-Dämmung-geht-nix-Faschos. :ugly:
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze
 

PCGH_Dave

Redaktion
Teammitglied
Ich wäre auch für 5-Slot Karten. Dann gäbe es mehr platz für RGB.
Gibt es doch alles schon :)

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Pokerclock

Moderator
Teammitglied
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze

Man braucht nur etwas besser ausgestattete Custom-3090er mit 400W-Limit nehmen (geht auch noch höher) und speziell bei den 5950X PBO anmachen (jeder macht da PBO an, wenn er unter Render-Volllast mehr als 3GHz sehen will). Schon gehen da konstante 650 Watt ohne sonstige Komponenten durch. Lastspitzen im 20ms-Bereich gerne auch mal kombiniert noch einmal 200 Watt mehr. Kürzere Lastspitzen auch noch mehr. Dann soll das NT natürlich nicht an der Kotzgrenze arbeiten, schwups bis du bei 1.000 Watt, wenn die neuen Generationen CPUs und Grafikkarten noch einmal 200 bis 300 Watt draufsetzen.

Achja, nicht jeder spielt mit einer 3090. Die werden auch zum Arbeiten gekauft, um sinnvoll und vergleichsweise günstig 24 GB VRAM haben zu können.

Ansonsten sehr zu empfehlen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Stand heute 850W-Marken-Netzteil für alles erdenkliche ausreichend bzw. notwendig, je nachdem was man vorhat.
 
Zuletzt bearbeitet:

Snowhack

BIOS-Overclocker(in)
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze

um etwas genau zu sein 470-500 Watt brauch man schon + Lastspitzen

350 Watt GPU (Je nach Modell & und Auflösungen)
100 Watt CPU je nach Spiel auch mal mehr oder weniger
50 Watt für restlichen Komponenten.

@Stock.
 

ZanDatsuFTW

Software-Overclocker(in)
Also der Trend mit der höheren Leistungsaufnahme gefällt mir persönlich auch überhaupt nicht.
Wenn ich bedenke was meine 1080Ti noch leistet und das bei ca. 200W Leistungsaufnahme (undervolted).
Dann kommen für mich in Zukunft eigentlich nur die Mid Range Grafikkarten in Frage.
 

PCGH_Dave

Redaktion
Teammitglied
Also der Trend mit der höheren Leistungsaufnahme gefällt mir persönlich auch überhaupt nicht.
Wenn ich bedenke was meine 1080Ti noch leistet und das bei ca. 200W Leistungsaufnahme (undervolted).
Eine RTX 3080 Ti mit Minimalspannung von 0,750 Volt zieht unter Last auch nur noch 230 Watt und dürfte nahezu doppelt so schnell sein, mit DLSS sogar noch viel schneller, sogar mit Raytracing. Solange man Karten so gut undervolten kann, mache ich mir wenig Sorgen um die Zukunft.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Die ganzen Stromberechnungen basieren auf den samsung 5nm node
Nvidia wird aber den tsmc 5nm oder den 5nm p nehmen
+80% dichte vs 12nm +70% Energieeinsparung bei gleichen Takt.
Ergeben bei nen theoretiichen 18432shader DIE 754mm² turning als Maßstab
754/4608*14432*0,2=472mm²
350/5120*14432*0,3=295w
Viel wichtiger ist welcher vram genommen wird gddr6x fällt raus
512bit SI wär von der Fläche zu teuer
Bleibt HBM2e 4stack 4gb =16gb an 4096bt mit 1ghz =4tb/s
ich galube aber eher das es 2048bit werden und 2TB/s
14432*2*/2*1,5*2,0=43,0tf mit 2tb/s das wär um die 150% schneller
Aber wie ich nvidia kenne wirds gddr6x 21gbits dann sind nur noch mit 384bit =1tb/s
73% schneller als der Vorgänger bei 2ghz Takt.

Wichtiger ist was amd macht und welchen chip als high end kommt.
ist es der n31 oder n33 wenn n31 mit 15360 shader wird nvidia schwer haben das zu toppen aber ich glaube eher das amd zuerst den n33 mit 5120 bringt als high end gpu /rx7900xt

vergrößerten inf cache mit mehr Bandbreite ergeben etwa 27,0tf und knapp 1,7tb/s =+98% vs Vorgänger.
Dann wäre das Duell nvidia mit rohpower aber begrenzten Bandbreite
Und amd mit mehr Bandbreite und weniger rohpower die besser ausgelastet werden kann.
Am ende entscheidet dann der treiber und cpu wer schneller ist
Einziger Ausweg für nvidia den takt ans limit setzen (tsmc max wären hier mit etwa 2,5ghz)
Oder die Architektur anzupassen was wahrscheinlicher ist SM Aufbau Veränderung
mehr fp32 weniger fp16 tippe auf 96x fp32 32x fp16
Nutzbare fp32 112 shader wenn ausgelastet.
Dem kann nvidia nur aus dem Weg gehen mit hbm2e bzw hbm3
Letztere ist noch nicht spezifiziert.

Was uns zum generellen Problem ab 12 Teraflolps bringt cpu limit
Derzeit kann keine cpu eine rtx3090 in 1080p auslasten und das ist die Auflösung womit die meiste spielen am PC stark gefolgt von 1440p.
Da die Konsolen den Takt angeben und in diesen ein zen2 chip ist wird sich die gpu Anforderung oberhalb einer rtx3060 /rx6600xt nicht kommen
Abseits von dxr was in Zukunft deutlich mehr Bedeutung bekommt insbesondere nach release der UE5 und unity engine.
Die Flut dieser Spiel kommen ab 2023-2024
Die Gründe warum nun es fallen spiel design mit dxr einige arbeiten weg.
Das beschleunigt die assets Erstellung und das bugfixing man muss mehr auf design achten da hier nicht mehr jedes detail geplant wird.
Das reduziert gleichzeitig die mühsehlige clipping fehler suche.
Somit dürften betas deutlich kürzer werden. Und man hat mehr zeit für design anzupassen
ich hoffe doch das damit die Qualität der spiele steigt. gehe aber davon aus das mehr fließband kommt. Weil dann billiger wird für den publisher. Weniger Personalkosten.

Thema MCM nun das wird eine herausfordeung an das treiber team von amd
ich sehe aber keine chance das dies i der rdna3 gen passieren wird am desktop sehe ich nur den n33 chip n31 wird exklusiv für workstation sein
und wenn es amd nicht schafft das problem der latenz zwischen den einzelnen chiplets zu egalisieren was nur mit einen aktiven interposer gehen würde.(= hbm2 auf der gpu).
Und bekannt ist das rdna3 nur gddr6 am desktop haben wird.
Wird das nix mit 15360shader es bleiben 5120 mit deutlich höheren bandbreite des inf cache.
das alleine reicht aber um den Vorgänger doppelt so schnell zu sein.
 

Thepunisher2403

PC-Selbstbauer(in)
Warum soll es nicht auch anders gehen? Man könnte es auch nach dem japanischen Top-Runner-Prinzip machen. Die nehmen z. B. bei Haushaltsgeräten das effizienteste und erklären dies zum Standard. Neugeräte müssen diese dann übertreffen, ohne mehr Energie zu verbrauchen. Das fördert Innovation und funktioniert auch. Zwar sind Grafikkarten keine Fernseher oder Waschmaschinen, aber in irgend einer Weise ließe sich dies sicher auch hier realisieren und man hätte dennoch Leistungssteigerungen. Die Unternehmen sind doch dann gezwungen irgendwie dennoch eine Leistungssteigerung trotz weniger Verbauch zu erreichen, da sonst niemand eine neue karte (außer Defekte) kaufen würde.
Ich finde deine Argumentation mit den höheren Verbrauch schon sehr lustig...den die 3080 oder die 3090 sind high end Karten und nur sehr wenige kaufen sich diese Karten..
Die meisten sind mit Karten im Bereich 300 bis 400 unterwegs
Im Mainstream Bereich wird das Geld gemacht...und da is der Verbrauch recht gering...

Wenn man jetzt eine neue gen mit weniger verbrauch haben will muss man halt ein paar Regale weiter nach unten greifen und auf die 60er oder 70er Karten schauen

Mit den 18k shadern um den es hier geht is der vollausbau den sich viele dann nicht leisten können oder wollen....

Klar sind die Ressourcen nicht unendlich aber da müsste man an vielen anderen Ecken anfangen als beim pc den Verbrauch zu regulieren....
 

ZanDatsuFTW

Software-Overclocker(in)
Eine RTX 3080 Ti mit Minimalspannung von 0,750 Volt zieht unter Last auch nur noch 230 Watt und dürfte nahezu doppelt so schnell sein, mit DLSS sogar noch viel schneller, sogar mit Raytracing. Solange man Karten so gut undervolten kann, mache ich mir wenig Sorgen um die Zukunft.
Ja wenn sie dann auch mit minimal Spannung stabil läuft.
Ich habe ja auch nur ein leichtes Undervolting, wenn ich bei mir auf minimal Spannung gehe dann zieht sie vielleicht nur noch 150 Watt aus der Steckdose.
Ich finde deine Argumentation mit den höheren Verbrauch schon sehr lustig...den die 3080 oder die 3090 sind high end Karten und nur sehr wenige kaufen sich diese Karten..
Also wenn ich mir das Forum hier so anschaue dann sehe ich da aber etwas anderes.
Aber z.B. laut Steam Umfrage hast du bestimmt Recht.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Und wieder ein absolut nutzloses Gerücht. Denn dass Nvidia in Zweijahreszyklen verfährt, weiß allerspätestens seit Pascal, jeder.

Und deshalb zum Standard machen und alle Hersteller sind gezwungen aus dem festgelegten Verbrauch, das Beste zu machen.

Damit würde man den unterlegenen Hersteller in den Ruin treiben, da der dann nicht nicht mehr den Takt anheben kann. (AMD wäre zwischen 2012 und 2017 wohl pleite gegangen).

Ich finde es sehr bedenklich, dass die kommenden Karten nochmals den Verbrauch in die Höhe schrauben sollen. Ich für mich habe beschlossen, die Hände von allen Karten über 250W zu lassen.

Alles spricht über Umweltschutz und die Verbräuche eines Gaming-PCs schießen nur so in die Höhe. Wo bleibt hier Innovation. Muss doch möglich sein die Leistung - zB bei einem gesetzlich vorgeschriebenen Maximalverbrauch - dennoch zu steigern!

Wenn du schon den Umweltschützer raushängen läßt, dann geh konsequent auf 75W oder nimm eine Mittelklassekarte und takte die auf unter 100W. Der Rest ist unnötiger Luxus. Am besten nimmst du gleich einen Laptop.

Jeder sollte selbst entscheiden, was er nimmt und Regulierungen den Komfort nicht einschränken. Die EU macht das schon sehr gut.

Wenn die prozentuale Steigerung ähnlich wie bei 350W -> 450W verläuft, sind die 7600 und 4060 bei 200W. Ich denke 180-200W sind realistisch.

Hängt davon ab, was bis dahin rausgebract wird und wer vorlegt. Wenn AMD einen guten Chip, mit 250W bringt und Nvidia ähnlich effizient ist, dann sind es eben 250W. Wenn 150W reichen, dann 150W.
 

Tolotos66

Volt-Modder(in)
Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.
 

PCGH_Dave

Redaktion
Teammitglied
Ja wenn sie dann auch mit minimal Spannung stabil läuft.
Ich verstehe das Problem nicht. Natürlich muss der Takt dann auch runter, händisch. Ich hatte letztens eine 3080 Ti im Einsatz, mit 0,75V lief sie noch mit rund 1,7 GHz, CP 2077 lief damit unter max. Details inklusive Raytracing und DLSS Q sehr flüssig, da kann die 1080 Ti eben nur von träumen. Aber natürlich, vom Werk aus hat die Karte über 400 Watt gezogen, bei mageren fünf Prozent mehr Fps - ohne mich.
 

derneuemann

BIOS-Overclocker(in)
Man braucht nur etwas besser ausgestattete Custom-3090er mit 400W-Limit nehmen (geht auch noch höher) und speziell bei den 5950X PBO anmachen (jeder macht da PBO an, wenn er unter Render-Volllast mehr als 3GHz sehen will). Schon gehen da konstante 650 Watt ohne sonstige Komponenten durch. Lastspitzen im 20ms-Bereich gerne auch mal kombiniert noch einmal 200 Watt mehr. Kürzere Lastspitzen auch noch mehr. Dann soll das NT natürlich nicht an der Kotzgrenze arbeiten, schwups bis du bei 1.000 Watt, wenn die neuen Generationen CPUs und Grafikkarten noch einmal 200 bis 300 Watt draufsetzen.

Achja, nicht jeder spielt mit einer 3090. Die werden auch zum Arbeiten gekauft, um sinnvoll und vergleichsweise günstig 24 GB VRAM haben zu können.
Was geht denn da beim Zocken durch?

Die Peaks brauchst du nicht erwähnen. Das sind Peaks und nicht Dauerlast. Ein gutes Netzteil mit 600W Dauerlast wird auch mit 20ms Peaks auf 800W locker wegstecken.

Auch bei einer 400W 3090 werden unter Spielelast "nur" rund 550W durch gehen, wenn man die mit einer 5950X PBO kombiniert.

Welche Programme nutzt du denn, die eine RTX3090 und einen 5950X (PBO an) zeitgleich voll auslasten?

Ich würde ein gutes Netzteil auch immer nur so dimensionieren, das es unter Last auch auf über 90% ausgelastet wird. Damit ist man am effizientesten unterwegs.

Also, laut CB liegt ein 5950X System mit einer RTX3080 bei bis zu 490W aus der Steckdose, also so um die 445W aus dem Netzteil. Dann halt 80W mehr für die GPU und man würde bei 525W aus dem NT landen. Was PBO in Spielen ausmacht weiß ich nicht.

Aber über alles wäre ein 600W Netzteil anscheinend angemessen ;)

Bezüglich der Arbeitsgeschichte, bitte ich einmal um Aufklärung. Welche Arbeit hier genannt wird, bei der GPU und CPU an der absoluten Lastspitze laufen und das gleichzeitig.
Und wie repräsentativ wäre dieses Szenario?
 

Pu244

Lötkolbengott/-göttin
Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.

Auch ohne Raytracing hat sich der Verbrauch gesteigert. Das Problem ist, dass es jetzt nur noch sehr langsam vorangeht. Früher hatte man, pro Jahrzehnt, eine Leistungssteigerung um den Faktor 1000, wenn es so weiter geht nur noch um den Faktor 5.

Ampere ist, bei gleichem Verbrauch, nur etwa 30% leistungsfähiger als Turing und schon der war schon nicht der hit. Also hat man die OC Keule rausgeholt und das ganze auf etwa 50% aufgepumpt. Ist zwar deutlich besser, nur läßt sich dieser Trick nur begrenzt anwenden.

Wenn es so weiter geht, dann hätten die nächsten Generationen 470W, 630W, 840W, 1100W und im Jahr 2030 wären wir bei 1500W. Irgendwann wir sich das nichtmehr halten lassen.

Die Peaks brauchst du nicht erwähnen. Das sind Peaks und nicht Dauerlast. Ein gutes Netzteil mit 600W Dauerlast wird auch mit 20ms Peaks auf 800W locker wegstecken.

Eigentlich haben fast nur gute Netzteile damit Probleme, schlechte haben meist miese Schutzschaltungen.
 

ZanDatsuFTW

Software-Overclocker(in)
Ich verstehe das Problem nicht. Natürlich muss der Takt dann auch runter, händisch. Ich hatte letztens eine 3080 Ti im Einsatz, mit 0,75V lief sie noch mit rund 1,7 GHz, CP 2077 lief damit unter max. Details inklusive Raytracing und DLSS Q sehr flüssig, da kann die 1080 Ti eben nur von träumen. Aber natürlich, vom Werk aus hat die Karte über 400 Watt gezogen, bei mageren fünf Prozent mehr Fps - ohne mich.
Du weißt sicher auch, dass sich nicht jedes Exemplar gleich verhält was das stabile Takt/Spannung Verhältnis angeht.
Bei deiner Karte scheint es gut gewesen zu sein, muss nicht heißen dass das bei jeder Karte so ist.
Ich persönlich hätte keine Lust bei einer Karte den Takt soweit zu senken und damit auch die Leistung der Karte bis ich eine für mich akzeptable Leistungsaufnahme erreiche, vorallem nicht wenn ich soviel Geld für die Karte ausgebe.
Wenn man ein gutes Exemplar erwischt dann ist das natürlich etwas anderes.
 

Incredible Alk

Moderator
Teammitglied
Du weißt sicher auch, dass sich nicht jedes Exemplar gleich verhält was das stabile Takt/Spannung Verhältnis angeht.
Bei deiner Karte scheint es gut gewesen zu sein, muss nicht heißen dass das bei jeder Karte so ist.
In dem BEreich unterscheiden sich die GA102-Karten nicht wesentlich. Klar, eine gute Karte schafft bei Minimalspannung 100 MHz mehr stabil als eine schlechte - aber es ist nicht so dass da irre UNterschiede zwischen den Karten bzgl. stabilem Takt und resultierendem Verbrauch beim UV wären.
1700 MHz bei 800mV und entsprechend deutlich unter 300W macht wahrscheinlich so ziemlich jede RTX3080/90 mit. Bessere Modelle schaffen eben 1800 MHz.
 

PCGH_Dave

Redaktion
Teammitglied
Sicher, aber was machen 20 oder 30 MHz am Ende aus? Gefühlt nichts :ugly:

Ich meine, es ist ja nicht so, dass eine andere Karte mit beispielhaften 0,75 Volt plötzlich nur noch 1,4 GHz schaffen würde. Ich habe inzwischen sehr viele RTX'n in der Hand gehabt und getestet, der Takt-Bereich ist fast immer der gleiche, was zählt ist hingegen die Kühlung. Je kühler der Chip ist, desto höher lässt er sich auch mit niedriger Spannung betreiben.

Und so tief musst du nicht mal mit der Spannung herunter, schon 0,9 Volt statt 1.xxx (unterschiedlich je nach Karte) spart mal eben 100 Watt ein, was du beim Spielen nicht mal bemerkst, aber hörst ^^

(Diesmal war Alki zwei Sekunden schneller :stick:)
 

ZanDatsuFTW

Software-Overclocker(in)
In dem BEreich unterscheiden sich die GA102-Karten nicht wesentlich. Klar, eine gute Karte schafft bei Minimalspannung 100 MHz mehr stabil als eine schlechte - aber es ist nicht so dass da irre UNterschiede zwischen den Karten bzgl. stabilem Takt und resultierendem Verbrauch beim UV wären.
1700 MHz bei 800mV und entsprechend deutlich unter 300W macht wahrscheinlich so ziemlich jede RTX3080/90 mit. Bessere Modelle schaffen eben 1800 MHz.
Wenn das so ist dann ist das ja noch in Ordnung.
Damit hätte ich dann kein Problem.
 

derneuemann

BIOS-Overclocker(in)
Schuld an der "Stromexplosion" ist die Einführung von RT+ entsprechender Features.
Dieses "schärfer als die Realität" benötigt nun mal ein Haufen Energie. Und AMD springt auf diesen Zug mit auf.
Die letzte non-RT-Gen (GTX 1070/1080) von NV war wahnsinnig effizient mit sehr guter Leistung. Die Leistung ist nur mäßig gestiegen, aber die Effizienz ist im Eimer.
Schöne neue Welt :wall:
Gruß T.

WHAT?

Die Leistung ist nicht stark gestiegen? Also ich nutzte aktuell selbst noch eine 1070 die dank Optimierung bei 2GHz läuft und dennoch mit dem maximalen FE Powerbudget auskommt, welches für die ganze Karte nur 168W vorsieht. Aber eine 2070 war schon 30% schneller, ohne RT zu nutzen. Ja bei mehr Verbrauch. Dann die 3070 ist so schnell wie die 2080TI .


Die neuen Karten sind Effizienter geworden, denn der Verbrauch sagt erstmal noch nichts über die Effizienz. Erst wenn man die Leistung dazu betrachtet, kann man Rückschlüsse ziehen.

Und ich wünsche mir schon das die Grafik immer besser wird. Also brauche ich auch immer mehr Leistung.

Wie Dave schon schrieb, kann man nach wie vor auch die aktuellen GPUs sehr effizient betreiben und nach Optimierung sogar um welten effizienter als Pascal.
 

ZanDatsuFTW

Software-Overclocker(in)
Sicher, aber was machen 20 oder 30 MHz am Ende aus? Gefühlt nichts :ugly:

Ich meine, es ist ja nicht so, dass eine andere Karte mit beispielhaften 0,75 Volt plötzlich nur noch 1,4 GHz schaffen würde. Ich habe inzwischen sehr viele RTX'n in der Hand gehabt und getestet, der Takt-Bereich ist fast immer der gleiche, was zählt ist hingegen die Kühlung. Je kühler der Chip ist, desto höher lässt er sich auch mit niedriger Spannung betreiben.

Und so tief musst du nicht mal mit der Spannung herunter, schon 0,9 Volt statt 1.xxx (unterschiedlich je nach Karte) spart mal eben 100 Watt ein, was du beim Spielen nicht mal bemerkst, aber hörst ^^

(Diesmal war Alki zwei Sekunden schneller :stick:)
Ok bei dieser Gen mag das der Fall sein, dann wäre das ja in Ordnung.
Aber bei der kommenden Gen könnte das schon wieder anders aussehen.
Denke das ist bei jeder Chip Architektur die sich deutlich von einander unterscheiden anders.
 

ThirdLife

Komplett-PC-Käufer(in)
Warum immer das elende Gememme über Verbräuche ? Immer derselbe Schwachsinn. Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten. Genauso wie im realen Leben die Leute über einen Ferrari F8 jammern die selber nur nen Polo fahren (dafür aber 40tkm im Jahr und somit deutlich weniger ökologisch sind).

Bei 60-70% aller Spiele kann meine 3080 locker mit 150-200W betrieben werden und das in 4K und maxed Details. Heisst aber nicht dass ich es mir nehmen lassen will in CP2077 nicht 450W zu verfeuern um so viel wie möglich rauszuholen wo ichs brauch. Das ist schliesslich kein 24/7 Verbrauch sondern eine Momentaufnahme.

Und wenn wir doch schon am verbieten sind, dann gibts ab heute keine beheizten Wohnungen mehr, keine Autos und ÖV und in den Urlaub fliegen hat sich sowieso erledigt. Entweder konsequent gegen alles oder das Maul halten.
 

RavionHD

PCGH-Community-Veteran(in)
Ich hoffe dass der Verbrauch nicht weiter steigt, ich halte die 320 Watt der RTX 3080 welche ich derzeit nutze schon als sehr grenzwertig, obwohl es Nvidia geschafft hat die Temperaturen sehr gut unter Kontrolle zu bringen (außer den G5X Vram bei den FE Karten, aber das ist eine andere Geschichte).

350 Watt ist für mich das Maximum was vertretbar ist, eine 450 Watt TDP Karte kommt für micht aktuell nicht in Frage, aber gut, vor vielen Jahren wären 350 Watt auch illusorisch gewesen, ich weiß noch wie damals bei der GTX 480 die 250 Watt TDP ständig kritisiert worden, also offenbar gewöhnen wir uns an höhere TDP's.
 

sunburst1988

Software-Overclocker(in)
Eigentlich haben fast nur gute Netzteile damit Probleme, schlechte haben meist miese Schutzschaltungen.
Stimmt, im Multi-Rail-Betrieb hat meine Karte mein Dark Power Pro zwischendurch einfach mal abgeschaltet. Ja die Karte hing an zwei Rails.
Seitdem ich auf Single-Rail umgeschaltet habe ist das nicht mehr passiert, aber da packt man sich erstmal schon an den Kopf... :ka:
 

Brexzidian7794

BIOS-Overclocker(in)
Noch ein Jahr bis zum next GPU Generation und ich hab immer noch keine aktuelle GPU zum halbwegs vernünftigen Preis ergattern können.Das ist ein Trauerspiel mit dem aktuellen GPU Preisen.Habe gehofft das sich das einigermaßen nach unten korrigieren wird,was anfangs vor einigen Monaten auch war.Sind wieder einige Preise gestiegen z.B. bei der RX 6800(XT) bei MF.Wer die Preiseentwicklung mitverfolgt weiss was ich meine.Dann will ich mal hoffen das meine 4 Jahre alte 1080GTX nicht verreckt.Vielleicht wird,s auch eine Intel GPU in nähsten Jahr zum Ende des ersten Quartals.Wenn ich bis dahin keinen GPU zum halbwegs vernünftigen Preis bekomme.Für mich spielt die Watt/Leistung von einer GPU eine große rolle.Und das bei einem WQHD Auflösung ist die 6800er (non XT) das vernümpftigste.
 

derneuemann

BIOS-Overclocker(in)
Warum immer das elende Gememme über Verbräuche ? Immer derselbe Schwachsinn. Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten. Genauso wie im realen Leben die Leute über einen Ferrari F8 jammern die selber nur nen Polo fahren (dafür aber 40tkm im Jahr und somit deutlich weniger ökologisch sind).

Bei 60-70% aller Spiele kann meine 3080 locker mit 150-200W betrieben werden und das in 4K und maxed Details. Heisst aber nicht dass ich es mir nehmen lassen will in CP2077 nicht 450W zu verfeuern um so viel wie möglich rauszuholen wo ichs brauch. Das ist schliesslich kein 24/7 Verbrauch sondern eine Momentaufnahme.

Und wenn wir doch schon am verbieten sind, dann gibts ab heute keine beheizten Wohnungen mehr, keine Autos und ÖV und in den Urlaub fliegen hat sich sowieso erledigt. Entweder konsequent gegen alles oder das Maul halten.
Du fängst grauenvoll an, mit deinem Schubladendenken "Es jammern die Leute über eine 4090 und deren Verbrauch die sowieso kein Geld dafür hätten und eine 4050 gekauft hätten"... klingt schon fast wertend ;)

Aber Recht hast du am Ende, es bedarf keiner Reglementierung des Verbrauchs. Jeder hat es selber in der Hand seine Hardware effizient zu nutzen.
 

AntiFanboy

BIOS-Overclocker(in)
Die Preise von "früher" werden nie wieder kommen, selbst wenn die Liefersituationen wieder normal sind und alles wieder ab Lager da ist. Denn die Krise hat auch gezeigt dass der Markt bereitwillig das doppelte und dreifache zu zahlen bereit ist für eine neue Grafikkarte. Das werden die Hersteller garantiert nicht liegen lassen...

davor habe ich auch "angst"
klar zocke ich gerne und leistung darf auch kosten - aber wenn eine mittelklasse karte (aktuell die 3060) 700€ kostet, dann läuft was falsch
nicht als könnte ich es mir nicht leisten, aber sowas will ich mir einfach nicht leisten
aber wie du schon sagst - ob die hersteller so eine gewinnspanne liegen lassen wollen?
es wäre halt nur schwer zu argumentieren, warum dem so ist, wenn es keine knappheit mehr gibt
jedoch wird es wohl immer leute geben, die alles zahlen - schlecht für, die sowas nicht unterstützen
 

Pu244

Lötkolbengott/-göttin
350 Watt ist für mich das Maximum was vertretbar ist, eine 450 Watt TDP Karte kommt für micht aktuell nicht in Frage, aber gut, vor vielen Jahren wären 350 Watt auch illusorisch gewesen, ich weiß noch wie damals bei der GTX 480 die 250 Watt TDP ständig kritisiert worden, also offenbar gewöhnen wir uns an höhere TDP's.

Meine Voodoo 3 3000 hatte eine Stromaufnahme von 16W. Die damals verrissene 5800 Ultra schon 50W.

Wenn beide Hersteller auf Augenhöhe sind, dann explodiert die TDP.
Kan man nicht pauschal so sagen, denn es hängt sehr stark an den einzelnen Netzteilen.

Dann nenn doch mal ein paar Chinaböller mit guten Schutzschaltungen.

Wobei mich mein Rombutech damals positiv überrascht hat, als es sei bei Überlast abgeschaltet hat. (auch wenn es dann etwas nach Fön gestunken hat).
 

derneuemann

BIOS-Overclocker(in)
davor habe ich auch "angst"
klar zocke ich gerne und leistung darf auch kosten - aber wenn eine mittelklasse karte (aktuell die 3060) 700€ kostet, dann läuft was falsch
nicht als könnte ich es mir nicht leisten, aber sowas will ich mir einfach nicht leisten
aber wie du schon sagst - ob die hersteller so eine gewinnspanne liegen lassen wollen?
es wäre halt nur schwer zu argumentieren, warum dem so ist, wenn es keine knappheit mehr gibt
jedoch wird es wohl immer leute geben, die alles zahlen - schlecht für, die sowas nicht unterstützen
Ich persönlich glaube gar nicht, das so unfassbar viele, zu so absurden Preisen gekauft haben. Klar wurde immer noch gut gekauft, aber eben bei weitem nicht so, als wenn wir die UVP Preise dauerhaft gesehen hätten und die Verfügbarkeit perfekt gewesen wäre.

Ich denke, die Preise werden weiter steigen, aber nicht so schnell wie befürchtet.

Aber selbst wenn, dann setzt man eine Runde aus und bekommt, dann ja die Leistung die man haben wollte eine Preisstufe niedriger.
Meine Voodoo 3 3000 hatte eine Stromaufnahme von 16W. Die damals verrissene 5800 Ultra schon 50W.

Wenn beide Hersteller auf Augenhöhe sind, dann explodiert die TDP.


Dann nenn doch mal ein paar Chinaböller mit guten Schutzschaltungen.

Wobei mich mein Rombutech damals positiv überrascht hat, als es sei bei Überlast abgeschaltet hat. (auch wenn es dann etwas nach Fön gestunken hat).
Es ging um die guten NT die alle auslösen ;)
 
Oben Unten