Geforce RTX 40: Lovelace ab Sommer 2022 in Serienproduktion?

Experten sprechen vom 2. Quartal 2022 bis sich die Halbleiter-Knappheit wieder normalisiert.

Wenn man dem glauben schenken will, dann könnte es ja was werden mit den neuen GPUs!?
Aber wer eine neue GPU zu "normalen" Preisen haben möchte, sollte sich schon gedanklich auf noch 1 Jahr warten einstellen. Einfach nur traurig... :ka:
 
Durch Preiserhöhungen schränkt man aber nichts ein, denn wie Du selbst sagst, wer es sich leisten kann, der nimmt es in Kauf. ist das Gleiche wie die CO²-Steuer.... Benzin und Diesel sind teurer, aber es wird deshalb nicht weniger gefahren und somit hat es auch keinen Umwelteffekt.

Außerdem muss man hier nicht immer gleich die Kommunismus- oder Sozialismus-Keule schwingen.

Wir leben auf einem Planeten mit endlichen Ressourcen. Die EU benötigt allein um den aktuellen Lebensstandard zu halten ca. 40% !!!!! der natürlichen Ressourcen. Die USA ebenso (das sogar trotz weniger Einwohner als die EU). das sind schon 80% nur für den "Westen". Wenn China auch nur ansatzweise den Lebensstandard des Westens für alle Bürger erreichen möchte (und sie wollen es) dann brauchen die allein mehr als der Westen. Da kann man sich schnell ausrechnen das dass mit den 100 % ne enge Kiste wird.

Der Bürger allein handelt nicht rational (ich eingeschlossen), das liegt nicht in der Natur des Menschen. Daher wird man nicht drum herum kommen, durch Grenzen - und, ja auch Verbote - den Markt zu regeln.
Alles richtig aber mit ein paar pauschalen Annahmen die im Übrigen voll gegen unseren immer noch bestehenden Gesellschaftsvertrag mit dem mündigen Bürger als zentralem Agenten laufen ist 1. noch keiner überzeugt und 2. auch noch keine Alternative formuliert.

Ich halte Nachhaltigkeit für eine der wichtigsten Triebfedern jeder wirtschaftlicher Veränderung in den nächsten Dekaden, aber gerne ohne dabei alle Bürgerrechte gleich im Voraus aufzugeben. Wird dann nämlich auch schwierig potentielle Unternehmer für das einzugehenden Risiko zu begeistern und da sind wir dann bei Planwirtschaft und Kommunismus.
 
18K beim Vollausbau :sabber:
2022 wird spannend im PC Bereich. Auch AMD´s Gerüchte klingen vielversprechend.
Daumen drücken das es halbwegs so stimmt und genug Karten zu kaufen gibt.
 
Experten sprechen vom 2. Quartal 2022 bis sich die Halbleiter-Knappheit wieder normalisiert.
Im Januar haben sie auch gesagt das wäre "im Sommer" der Fall. Realität: Die Knappheit in der Industrie ist nochmal weitaus größer geworden. "Normal" wird da dieses Jahr garantiert nichts mehr, das kann ich dir (durch ein paar Infos aus Berufsgründen) versprechen. Das wussten die Experten nebenbei auch im Januar schon (weswegen beispielsweise die Autoindustrie schon mal Kurzarbeit für das ganze Jahr eingereicht hat und immer die Karte zieht wenn mal wieder gar nix an Chips kommt), nur kann man nicht überall alles offen erzählen - kennst ja den Spruch dass die Wahrheit die Menschen beunruhigen könnte.
Wir haben (unter anderem) aus den Gründen auch aktuell Lieferzeiten von 3-4 Monaten was in normalen Zeiten 3-4 Wochen sind. Und ich arbeite in der stahlschaffenden Industrie - wo Mikrochips zwar gebraucht werden aber lange nicht an erster Stelle stehen. Kannst dir ja vorstellen wie das bei Industriezweigen aussieht die sowas viel dringender brauchen.

Wenn man dem glauben schenken will, dann könnte es ja was werden mit den neuen GPUs!?
Aber wer eine neue GPU zu "normalen" Preisen haben möchte, sollte sich schon gedanklich auf noch 1 Jahr warten einstellen.
Die Preise von "früher" werden nie wieder kommen, selbst wenn die Liefersituationen wieder normal sind und alles wieder ab Lager da ist. Denn die Krise hat auch gezeigt dass der Markt bereitwillig das doppelte und dreifache zu zahlen bereit ist für eine neue Grafikkarte. Das werden die Hersteller garantiert nicht liegen lassen...
 
Alles richtig aber mit ein paar pauschalen Annahmen die im Übrigen voll gegen unseren immer noch bestehenden Gesellschaftsvertrag mit dem mündigen Bürger als zentralem Agenten laufen ist 1. noch keiner überzeugt und 2. auch noch keine Alternative formuliert.

Ich halte Nachhaltigkeit für eine der wichtigsten Triebfedern jeder wirtschaftlicher Veränderung in den nächsten Dekaden, aber gerne ohne dabei alle Bürgerrechte gleich im Voraus aufzugeben. Wird dann nämlich auch schwierig potentielle Unternehmer für das einzugehenden Risiko zu begeistern und da sind wir dann bei Planwirtschaft und Kommunismus.
Bürgerrechte mit Grenzwerten für Stromverbräuche von Geräten etc. zu vermischen ist aber auch ne Hausnummer :ugly:
 
Warum aufregen? Ihr habt doch die Wahl! Wenn eine neue Grafikkartengeneration durch Technik 20% effizienter wird und durch ein neues Verfahren (7 -> 5nm) nochmal 30% effizienter wird, dann könnt ihr eben wählen zwischen:

1) Gleiche Leistung mit weniger Stromverbrauch (z.B. 3090 -> 4070)
2) Höhere Leistung mit gleichem Stromverbrauch (z.B. 3090 -> 4080)
3) Höchste Leistung mit höherem Stromverbrauch (z.B. 3090 -> 4090)

Ihr könnt aber nicht 50% mehr Leistung und gleichzeitig halben Stromverbrauch erwarten. Ihr habt die Wahl! Die Hersteller können nur Sachen anbieten.
 
Wie innerhalb von zwei Generationen von einem 500 W NT über ein 750 W NT ein 1.000 W NT zum Muss für ein Single-GPU-Setup wird bei den Topmodellen kombiniert mit entsprechenden CPUs. Na dann have fun User of Full-Glass-Front-Cases und den Ohne-Dämmung-geht-nix-Faschos. :ugly:
 
Kommt drauf an, wo an hin schaut.

Wenn du Lovelace in ein 200-250W Korsett stecken würdest, wäre die Chips aber vermutlich nicht schneller als Ampere.
Viele schreien nach 4K mit 120+FPS oder sogar 8K. Die Leistungssteigerung erreicht man gerade bei MCM aber auch durch den erhöhten Verbrauch. Wenn man den bremst, dann ist der Leistungssprung nur noch minimal und alle schreien wieder auf, weil die neue Gen nur 10-30% schneller als die alte ist.
Das hatten wir schon bei Pascal und Turing.
Hallo,


Wenn man bei AMpere zum Beispiel schaut, wie sehr sich die RT Leistung gesteigert hat, oder die Leistung in Titeln mit massiven RT Einsatz, dann st die Effizienz schon relativ gut gestiegen.

Egal, der Verbrauch ist völlig egal, sofern die Effizienz steigt. Den Rest entscheidet der Käufer für sich selbst.

Es braucht nicht für alles Gesetze.
Ansonsten fordere ich eine Fleischgesetz, Salz, Zucker, ein echtes Alkohol und Zigarettengesetz.
Aber mehr als die 5600XT.
Nicht bei selber Leistung ;)
Wie innerhalb von zwei Generationen von einem 500 W NT über ein 750 W NT ein 1.000 W NT zum Muss für ein Single-GPU-Setup wird bei den Topmodellen kombiniert mit entsprechenden CPUs. Na dann have fun User of Full-Glass-Front-Cases und den Ohne-Dämmung-geht-nix-Faschos. :ugly:
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze
 
Ich wäre auch für 5-Slot Karten. Dann gäbe es mehr platz für RGB.
Gibt es doch alles schon :)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze

Man braucht nur etwas besser ausgestattete Custom-3090er mit 400W-Limit nehmen (geht auch noch höher) und speziell bei den 5950X PBO anmachen (jeder macht da PBO an, wenn er unter Render-Volllast mehr als 3GHz sehen will). Schon gehen da konstante 650 Watt ohne sonstige Komponenten durch. Lastspitzen im 20ms-Bereich gerne auch mal kombiniert noch einmal 200 Watt mehr. Kürzere Lastspitzen auch noch mehr. Dann soll das NT natürlich nicht an der Kotzgrenze arbeiten, schwups bis du bei 1.000 Watt, wenn die neuen Generationen CPUs und Grafikkarten noch einmal 200 bis 300 Watt draufsetzen.

Achja, nicht jeder spielt mit einer 3090. Die werden auch zum Arbeiten gekauft, um sinnvoll und vergleichsweise günstig 24 GB VRAM haben zu können.

Ansonsten sehr zu empfehlen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Stand heute 850W-Marken-Netzteil für alles erdenkliche ausreichend bzw. notwendig, je nachdem was man vorhat.
 
Zuletzt bearbeitet:
Was geht denn durch das Netzteil, wenn man eine RTX3090 mit einem 11900k kombiniert?

Keine 500W in Spielen.

Wer natürlich ohne Sinn und Verstand max Vcore OC betreiben möchte und für 3% mehr Leistung locker 10+% mehr Verbrauch in kauf nehmen möchte, kann auch etwas mehr brauchen, aber in Spielen immer noch sehr knapp an der 500W Grenze

um etwas genau zu sein 470-500 Watt brauch man schon + Lastspitzen

350 Watt GPU (Je nach Modell & und Auflösungen)
100 Watt CPU je nach Spiel auch mal mehr oder weniger
50 Watt für restlichen Komponenten.

@Stock.
 
Also der Trend mit der höheren Leistungsaufnahme gefällt mir persönlich auch überhaupt nicht.
Wenn ich bedenke was meine 1080Ti noch leistet und das bei ca. 200W Leistungsaufnahme (undervolted).
Dann kommen für mich in Zukunft eigentlich nur die Mid Range Grafikkarten in Frage.
 
Also der Trend mit der höheren Leistungsaufnahme gefällt mir persönlich auch überhaupt nicht.
Wenn ich bedenke was meine 1080Ti noch leistet und das bei ca. 200W Leistungsaufnahme (undervolted).
Eine RTX 3080 Ti mit Minimalspannung von 0,750 Volt zieht unter Last auch nur noch 230 Watt und dürfte nahezu doppelt so schnell sein, mit DLSS sogar noch viel schneller, sogar mit Raytracing. Solange man Karten so gut undervolten kann, mache ich mir wenig Sorgen um die Zukunft.
 
Die ganzen Stromberechnungen basieren auf den samsung 5nm node
Nvidia wird aber den tsmc 5nm oder den 5nm p nehmen
+80% dichte vs 12nm +70% Energieeinsparung bei gleichen Takt.
Ergeben bei nen theoretiichen 18432shader DIE 754mm² turning als Maßstab
754/4608*14432*0,2=472mm²
350/5120*14432*0,3=295w
Viel wichtiger ist welcher vram genommen wird gddr6x fällt raus
512bit SI wär von der Fläche zu teuer
Bleibt HBM2e 4stack 4gb =16gb an 4096bt mit 1ghz =4tb/s
ich galube aber eher das es 2048bit werden und 2TB/s
14432*2*/2*1,5*2,0=43,0tf mit 2tb/s das wär um die 150% schneller
Aber wie ich nvidia kenne wirds gddr6x 21gbits dann sind nur noch mit 384bit =1tb/s
73% schneller als der Vorgänger bei 2ghz Takt.

Wichtiger ist was amd macht und welchen chip als high end kommt.
ist es der n31 oder n33 wenn n31 mit 15360 shader wird nvidia schwer haben das zu toppen aber ich glaube eher das amd zuerst den n33 mit 5120 bringt als high end gpu /rx7900xt

vergrößerten inf cache mit mehr Bandbreite ergeben etwa 27,0tf und knapp 1,7tb/s =+98% vs Vorgänger.
Dann wäre das Duell nvidia mit rohpower aber begrenzten Bandbreite
Und amd mit mehr Bandbreite und weniger rohpower die besser ausgelastet werden kann.
Am ende entscheidet dann der treiber und cpu wer schneller ist
Einziger Ausweg für nvidia den takt ans limit setzen (tsmc max wären hier mit etwa 2,5ghz)
Oder die Architektur anzupassen was wahrscheinlicher ist SM Aufbau Veränderung
mehr fp32 weniger fp16 tippe auf 96x fp32 32x fp16
Nutzbare fp32 112 shader wenn ausgelastet.
Dem kann nvidia nur aus dem Weg gehen mit hbm2e bzw hbm3
Letztere ist noch nicht spezifiziert.

Was uns zum generellen Problem ab 12 Teraflolps bringt cpu limit
Derzeit kann keine cpu eine rtx3090 in 1080p auslasten und das ist die Auflösung womit die meiste spielen am PC stark gefolgt von 1440p.
Da die Konsolen den Takt angeben und in diesen ein zen2 chip ist wird sich die gpu Anforderung oberhalb einer rtx3060 /rx6600xt nicht kommen
Abseits von dxr was in Zukunft deutlich mehr Bedeutung bekommt insbesondere nach release der UE5 und unity engine.
Die Flut dieser Spiel kommen ab 2023-2024
Die Gründe warum nun es fallen spiel design mit dxr einige arbeiten weg.
Das beschleunigt die assets Erstellung und das bugfixing man muss mehr auf design achten da hier nicht mehr jedes detail geplant wird.
Das reduziert gleichzeitig die mühsehlige clipping fehler suche.
Somit dürften betas deutlich kürzer werden. Und man hat mehr zeit für design anzupassen
ich hoffe doch das damit die Qualität der spiele steigt. gehe aber davon aus das mehr fließband kommt. Weil dann billiger wird für den publisher. Weniger Personalkosten.

Thema MCM nun das wird eine herausfordeung an das treiber team von amd
ich sehe aber keine chance das dies i der rdna3 gen passieren wird am desktop sehe ich nur den n33 chip n31 wird exklusiv für workstation sein
und wenn es amd nicht schafft das problem der latenz zwischen den einzelnen chiplets zu egalisieren was nur mit einen aktiven interposer gehen würde.(= hbm2 auf der gpu).
Und bekannt ist das rdna3 nur gddr6 am desktop haben wird.
Wird das nix mit 15360shader es bleiben 5120 mit deutlich höheren bandbreite des inf cache.
das alleine reicht aber um den Vorgänger doppelt so schnell zu sein.
 
Warum soll es nicht auch anders gehen? Man könnte es auch nach dem japanischen Top-Runner-Prinzip machen. Die nehmen z. B. bei Haushaltsgeräten das effizienteste und erklären dies zum Standard. Neugeräte müssen diese dann übertreffen, ohne mehr Energie zu verbrauchen. Das fördert Innovation und funktioniert auch. Zwar sind Grafikkarten keine Fernseher oder Waschmaschinen, aber in irgend einer Weise ließe sich dies sicher auch hier realisieren und man hätte dennoch Leistungssteigerungen. Die Unternehmen sind doch dann gezwungen irgendwie dennoch eine Leistungssteigerung trotz weniger Verbauch zu erreichen, da sonst niemand eine neue karte (außer Defekte) kaufen würde.
Ich finde deine Argumentation mit den höheren Verbrauch schon sehr lustig...den die 3080 oder die 3090 sind high end Karten und nur sehr wenige kaufen sich diese Karten..
Die meisten sind mit Karten im Bereich 300 bis 400 unterwegs
Im Mainstream Bereich wird das Geld gemacht...und da is der Verbrauch recht gering...

Wenn man jetzt eine neue gen mit weniger verbrauch haben will muss man halt ein paar Regale weiter nach unten greifen und auf die 60er oder 70er Karten schauen

Mit den 18k shadern um den es hier geht is der vollausbau den sich viele dann nicht leisten können oder wollen....

Klar sind die Ressourcen nicht unendlich aber da müsste man an vielen anderen Ecken anfangen als beim pc den Verbrauch zu regulieren....
 
Eine RTX 3080 Ti mit Minimalspannung von 0,750 Volt zieht unter Last auch nur noch 230 Watt und dürfte nahezu doppelt so schnell sein, mit DLSS sogar noch viel schneller, sogar mit Raytracing. Solange man Karten so gut undervolten kann, mache ich mir wenig Sorgen um die Zukunft.
Ja wenn sie dann auch mit minimal Spannung stabil läuft.
Ich habe ja auch nur ein leichtes Undervolting, wenn ich bei mir auf minimal Spannung gehe dann zieht sie vielleicht nur noch 150 Watt aus der Steckdose.
Ich finde deine Argumentation mit den höheren Verbrauch schon sehr lustig...den die 3080 oder die 3090 sind high end Karten und nur sehr wenige kaufen sich diese Karten..
Also wenn ich mir das Forum hier so anschaue dann sehe ich da aber etwas anderes.
Aber z.B. laut Steam Umfrage hast du bestimmt Recht.
 
Zuletzt bearbeitet:
Und wieder ein absolut nutzloses Gerücht. Denn dass Nvidia in Zweijahreszyklen verfährt, weiß allerspätestens seit Pascal, jeder.

Und deshalb zum Standard machen und alle Hersteller sind gezwungen aus dem festgelegten Verbrauch, das Beste zu machen.

Damit würde man den unterlegenen Hersteller in den Ruin treiben, da der dann nicht nicht mehr den Takt anheben kann. (AMD wäre zwischen 2012 und 2017 wohl pleite gegangen).

Ich finde es sehr bedenklich, dass die kommenden Karten nochmals den Verbrauch in die Höhe schrauben sollen. Ich für mich habe beschlossen, die Hände von allen Karten über 250W zu lassen.

Alles spricht über Umweltschutz und die Verbräuche eines Gaming-PCs schießen nur so in die Höhe. Wo bleibt hier Innovation. Muss doch möglich sein die Leistung - zB bei einem gesetzlich vorgeschriebenen Maximalverbrauch - dennoch zu steigern!

Wenn du schon den Umweltschützer raushängen läßt, dann geh konsequent auf 75W oder nimm eine Mittelklassekarte und takte die auf unter 100W. Der Rest ist unnötiger Luxus. Am besten nimmst du gleich einen Laptop.

Jeder sollte selbst entscheiden, was er nimmt und Regulierungen den Komfort nicht einschränken. Die EU macht das schon sehr gut.

Wenn die prozentuale Steigerung ähnlich wie bei 350W -> 450W verläuft, sind die 7600 und 4060 bei 200W. Ich denke 180-200W sind realistisch.

Hängt davon ab, was bis dahin rausgebract wird und wer vorlegt. Wenn AMD einen guten Chip, mit 250W bringt und Nvidia ähnlich effizient ist, dann sind es eben 250W. Wenn 150W reichen, dann 150W.
 
Zurück