Neue Gerüchte zur Geforce RTX 4000: Bis 600 Watt und Option auf GDDR7?

bei computerbase gabs auch sonen Artikel vor ner Woche ca da sollte es angeblich bis 850 Watt gehen ^^
Es gab viele Hiobsbotschaften und Klickbaitartikel (ob absichtlicher Bait oder Unverständnis ist schwer zu sagen) - es ist quasi sicher, dass keine GPU der nächsten Generation derart hohe TDPs haben wird. Da werden TDPs mit Peaks im ms-Bereich. Netzteilempfehlungen und Steckertypen-Specs wild durcheinandergeworfen.

Ja, die neuen Karten werden mehr saufen. Das ist alleine schon wegen größeren Chips (im Sinne von Transistorzahl), mehr Speicherbandbreite und strategisch aufgrund des "Patts" zweier Hersteller (wer weniger Strom reindrückt verliert gegen den jeweils anderen ders macht) unausweichlich. Aber man springt nicht von 350 auf 850W TDP. Dass die Topmodelle in den Bereich von 500W gehen können ist realistisch, aber sehr viel mehr wird es (abseits irgendwelcher superduperlightningstrixares1337ultragaming Custommodelle dies übertreiben) eher nicht geben. Ich tippe sogar eher darauf, dass man die RTX4080 und RX7800XT im Bereich von "nur" 300-400W lassen wird und die ganzen irren Wattzahlen dem jeweiligen Flaggschiff (7900 / 4090) vorbehalten sind das im Wesentlichen nur dafür da ist der Konkurrenz den längeren zu zeigen.^^
 
Deine Argumente sind schlecht und einfallslos.

Sind dir die Argumente ausgegangen?

Beinahe jedes Argument ist ein Luftschloss.

Na dann nenn doch mal was.

Die Verantwortung weist du von dir.

Ich habe es doch schon gesagt: Atomkraftwerk und gut ist es.

Falls jetzt die Atommülldebatte aufkommen sollte: das Zeug einfach dahin stellen, wo wir unseren Giftmüll entsorgen. Dass in Herfa-Neurode das ganze Zeug entsorgt wird, das interessiert keinen, der böse Atommüll würde sich da ganz gut machen. Alternativ würde sich noch die Tiefsee oder die Antarktis anbieten, Ideen gibt es genug.
 
Leute, ich verstehe euch nicht.
Ihr fröhnt euch einem Hobby, dem Gaming und dem PC-Bau und die Komponenten und wie sie interagieren.
Ihr steckt im Aufbau eures Wissens so viel Energie rein und habt viel Spaß dran.

Nun erfahren wir, was die Lovelace-Karten vermutlich können und sollten uns darüber freuen.
Aber nein:
Wir die gemütliche Runde zoffen uns wegen des Stromverbrauches... kann man sich nicht ausdenken!

Wenn es darum ginge, dann sollten wir alle mit dem zocken aufhören und lieber wieder den 12h Arbeitstag einführen (damit uns nicht langweilig wird ;))
 
Ich freu mich schon auf die 4090, ganz gleich was sie kostet/verbrauchen wird :banane:
Aus technologischer Sicht ich ebenfalls. Bei der zu erwartenden Leistungsaufnahme wird mir aber aber schlecht, meine auf 330W beschränkte 3090 finde ich schon grenzwertig. Habe eben 3h am Stück Elden Ring gezockt und es ist spürbar wärmer geworden im Zimmer. Musste eben erst mal das Fenster aufmachen ...^^

Bei längeren Sessions in VR z.B. heizt der PC mein Zimmer leicht um 2-3°C auf, im Sommer noch mehr und in kürzerer Zeit. Deswegen bedeutet der Sommer für mich Zocken auf Sparflamme am Laptop oder der Switch und nicht am PC.

Werde deshalb erst mal bei der 3090 bleiben und mir mit Lovelace nicht eine noch stärkere Heizung ins Haus holen. In den Fingern juckt es mich trotzdem, in meiner hohen 32:9 Auflösung kann ich nie genug Leistung haben :(
 
Du machst dir schlichtweg was vor. Das sind Selbstberuhigungsfloskeln. Kohlekraftwerke und Atommeiler gehen wohl wieder ans Netz. So wie du argumentierst (und manch ein anderer auch) ist der Grund, warum wir jetzt da stehen, wo wir stehen.
Genau, und nicht etwa deswegen, weil Länder wie China über 200 Kohlekraftwerke bauen oder Leute, die ständig in den Urlaub fliegen, oder solche, die 20x mehr Kilometer als ich die Woche zur Arbeit fahren.
Ohne zu wissen, was ich sonst so für nicht lebensnotwendiges "verschwende", solltest du mit pauschalen Aussagen vorsichtig sein.

Und solange wir in D und in Europa keine guten Lösungen finden, werden kaum andere Länder gewillt sein unserem Weg zu folgen. Und was das bedeutet, bedarf wohl keiner weiteren Erklärung.
 
Also ich kann hier ohne Probleme mit 630 Watt auf dem offenen Benchtable mitten im Raum 40 m² auf 21° C heizen. Das geht solange gut wie draußen keine zweistelligen Minusgrade sind. Dann muss ich tatsächlich eine 3090 aktivieren, was aber abends bei gelegentlichen Spielesessions ohnehin passiert.

Ich hab schon im letzten Sommer mehr als einmal überlegt den Spiele-PC einfach auszulassen weil man es im Raum nicht mehr ausgehalten hat (Dachgeschoss).
 
Lese ich da was falsch? Die 4090 soll doppelt so schnell sein als die 3090. Die 3090 säuft 350W. Gehe ich von den 600W für die 4090 als Spitzenmodel aus, so hab ich doppelte Leistung bei doppeltem Verbrauch. Wo ist da die Entwicklung?
100W weniger ist die Entwicklung. Und auch wenn du JETZT 2x3090 irgendwie zusammen kleisterst, haste du noch lange nicht die doppelte Performance.
Ich würd mich mit einer 4080 zufrieden geben, 450W bei 75% mehr Leistung einer 3090 ist ok..mehr würd mein Netzteil aktuell nicht mitmachen, es ist ja nur 750W.

Was Platz angeht, ich habe eine 3090FE in meinem NR200P UND 2 Slim Lüfter unter der GPU...ne Noctua 3070 würd bestimmt auch passen...
 
So eine RTX 4080 mit von mir aus um die 450 Watt und 3-4 Slot Design würde ich mir schon gerne gönnen wenn die Leistung passt.
Schreibtisch/PC steht im Schlafzimmer, hier ist sowieso durchgehend die Heizung aus und im Sommer zocke ich selten, Hochsommer schon gar nicht. See ist direkt vor der Tür und neues SUP kommt morgen:-D
 
Also ich kann hier ohne Probleme mit 630 Watt auf dem offenen Benchtable mitten im Raum 40 m² auf 21° C heizen. Das geht solange gut wie draußen keine zweistelligen Minusgrade sind. Dann muss ich tatsächlich eine 3090 aktivieren, was aber abends bei gelegentlichen Spielesessions ohnehin passiert.

Ich hab schon im letzten Sommer mehr als einmal überlegt den Spiele-PC einfach auszulassen weil man es im Raum nicht mehr ausgehalten hat (Dachgeschoss).
Das Problem im Sommer hatte ich schon vor der 3090 mit einer 1080TI XD. Die 60W mehr machen da keinen Unterschied. Und mein PC hat "nur" 450W Spitze. Dafür muss ich im Winter die Heizung nicht so weit hochdrehen...
 
Das Problem im Sommer hatte ich schon vor der 3090 mit einer 1080TI XD. Die 60W mehr machen da keinen Unterschied. Und mein PC hat "nur" 450W Spitze. Dafür muss ich im Winter die Heizung nicht so weit hochdrehen...

So gerechnet ist die 350er 3090 effizienter als Deine vorherige 290er 1080 Ti. Ohne jede Optimierung milchgerechnet von mir jetzt.

Ich kann aber auch sagen, dass ich 3090er mit 350 Watt habe und auch 3090er, die mittels Switch auch mal eben 480 Watt nuckeln und mit Powerlimit-Regler ganz rechts noch mehr. Der Leistungsgewinn ist nicht mal eine zweistellige Prozentzahl. Keinerlei fühlbarer Mehrwert abseits von einem wärmeren Zimmer. Das kann nicht Sinn der Sache sein.
 
Aus technologischer Sicht ich ebenfalls. Bei der zu erwartenden Leistungsaufnahme wird mir aber aber schlecht, meine auf 330W beschränkte 3090 finde ich schon grenzwertig. Habe eben 3h am Stück Elden Ring gezockt und es ist spürbar wärmer geworden im Zimmer. Musste eben erst mal das Fenster aufmachen ...^^

Bei längeren Sessions in VR z.B. heizt der PC mein Zimmer leicht um 2-3°C auf, im Sommer noch mehr und in kürzerer Zeit. Deswegen bedeutet der Sommer für mich Zocken auf Sparflamme am Laptop oder der Switch und nicht am PC.

Werde deshalb erst mal bei der 3090 bleiben und mir mit Lovelace nicht eine noch stärkere Heizung ins Haus holen. In den Fingern juckt es mich trotzdem, in meiner hohen 32:9 Auflösung kann ich nie genug Leistung haben :(

da hilft nur eine Klimaanlage ;)
 
"Der hohe Materialeinsatz bei Luftkühlungen dürfte aber auch am Preis nicht unbemerkt vorübergehen, ..."

Also erhöht man diesmal die UVP bevor man dann das Doppelte abkassiert?

Na da werden die Miner aber die Ohren anlegen...





nicht.
 
Bis zur 4070-er scheint der Verbrauch absolut moderat zu sein, lediglich die 4090 wird sehr stark ausreißen (bei womöglich vergleichsweise nur geringem Leistungsplus gegenüber der 4080).
Bei der 4080 hoffe ich mal auf 350 Watt, 450 Watt wäre schon etwas heftig, aber bei entsprechender Leistung könnte ich mich noch irgendwie arrangieren.
 
oh man also wenn das wirklich so sein wird dann bin ich mal raus aus der sache. Hole mir eine xbox oder ps5 und vergnüge mich dann mit dem mittelmaß an was man sich ja schnell gewöhnt. das wird mit alles etwas zu irre! erst die preise dann dieser kranke Stromverbrauch was sich ja dann komplett durch den ganzen pc ziehen wird. also wird dann wohl 1200w Standard werden :D
 
So gerechnet ist die 350er 3090 effizienter als Deine vorherige 290er 1080 Ti. Ohne jede Optimierung milchgerechnet von mir jetzt.

Ich kann aber auch sagen, dass ich 3090er mit 350 Watt habe und auch 3090er, die mittels Switch auch mal eben 480 Watt nuckeln und mit Powerlimit-Regler ganz rechts noch mehr. Der Leistungsgewinn ist nicht mal eine zweistellige Prozentzahl. Keinerlei fühlbarer Mehrwert abseits von einem wärmeren Zimmer. Das kann nicht Sinn der Sache sein.
Die Asus Strix 1080Ti zog Stock biszu 290W an und mein damaliger 7700k lief mit 4,8Ghz@1,25V und ca 65W.
Heute zieht die 3090 biszu 350W und mein 5950X kann zwar bis 142W rauf, liegt aber eher bei 65-80W, weil der Boost aus ist und die mit 4,2Ghz@1,1V läuft.
Die 3090 läuft mit 0,825V und 1850Mhz. In 4k120FPS ist die aber fast immer am Anschlag, wenn es ein GPU lastiger Titel ist.
Ich konnte auch mal testweise eine 3080 unter 200W in Port Royale laufen lassen, allerdings mit ca 35% Leistungseinbuße. Das Powerlimit war hier unangetastet, lediglich Spannung und Takt war runtergeschraubt.
Wäre immer noch besser als eine 3060Ti aber mit geringerem Verbrauch. Von daher wünschte ich, die Hersteller würde mal sog Sparmodis/Profile mit einbauen.
Eine 4090 läuft vielleicht mit 200W gleichschnell wie eine 3090 und nur die letzten 10-20% kosten 250W mehr oder so.
 
Bei dem was meine Kollegen für ihre Wärmepumpen zahlen, fallen auch GPUs mit 600W nicht ins Gewicht. Um den Strompreis geht es dabei nicht, zumindest mir nicht. Ich vermisse nur mehr Entwicklung.
Wie viel verbrauchen denn die Wärmepumpen deiner Kollegen? Meine Erdwärmepumpe hat letztes Jahr 1371 kWh verbraucht und damit ein ganzes Jahr lang das Haus geheizt und Warmwasser bereitet. Das entspräche einem täglichen Betrieb von etwas mehr als 6 Stunden unter Last bei einer 600W-Grafikkarte. Da würde ich nicht sagen, dass die nicht ins Gewicht fällt.
Wenn die Wärmepumpen deiner Kollegen wesentlich mehr verbrauchen, sollten sie die Konfiguration mal überprüfen (lassen).

Du argumentierst vom Einzelfall aus. Bei der Energiewende geht es darum, dass bei sämtlichen Verbrauchern eingespart wird. Da gibt es den Kühlschrank, den Wärmepumpentrockner, die Waschmaschine, die Beleuchtung, Fernseher oder Stereoanlagen. Ein Beispiel: Wenn bei sämtlichen Verbrauchern 20% an Strom eingespart werden kann, dann sind das auf Millionen von Hausalten hochgerechnet eben keine Peanuts.
- Es handelt sich hier um eine gesamtgesellschaftliche Aufgabe.

Und ganz ehrlich: 1000 Watt für Unterhaltungselektronik (zum zocken...) ist absolut überflüssig.
Grundsätzlich bin ich vollkommen bei dir. Wir alle müssen unseren Teil zur CO² Reduktion beitragen. Nur kann man das auf einzelne Produkte bezogen nicht so dogmatisch sehen, denn es fehlt der Kontext. Ein Spieler mit 200W-Grafikkarte, der dreimal so viel spielt wie ein Spieler mit 600W-Grafikkarte verbraucht genau so viel Strom. Und jemand, der einmal mehr in den Urlaub fliegt, verursacht damit noch wesentlich mehr CO² als die Spieler mit ihren Grafikkarten.

Ich habe auch eine 300W-Karte im Rechner. Allerdings produziere ich den Großteil meines Stroms selbst. Letztes Jahr war ich zu 71% autark. Insgesamt habe ich außerdem mehr Ökostrom ins Netz eingespeist als ich entnommen habe, trotz Wärmepumpe und zwei Elektroautos. Außerdem bin ich privat noch nie mit dem Flugzeug geflogen oder mit einem Kreuzfahrtschiff gefahren. Und ich kaufe grundsätzlich nachhaltig. Und nun kommst du und möchtest mir die Grafikkarte verbieten? Das ist unverhältnismäßig.

Wie gesagt, ich unterstütze dein Anliegen grundsätzlich und hoffe, dass du möglichst viele Leute damit erreichst. Allerdings kann die Art und Weise der Kommunikation und eine allzu dogmatische Einstellung durchaus das Gegenteil bewirken.
 
Zurück