Geforce RTX 3090: Hohe Blender-Benchmarks, Custom-PCB geleakt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3090: Hohe Blender-Benchmarks, Custom-PCB geleakt

Einem neuen Leak nach ist die Geforce RTX 3090 in Blender rund 20 Prozent schneller als die kürzlich veröffentlichte Geforce RTX 3080. Ein weiterer Leak betrifft das PCB einer Gigabyte RTX 3090 Eagle OC, das als Teil eines Teardown-Videos die Runde macht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3090: Hohe Blender-Benchmarks, Custom-PCB geleakt
 
Ergo ist die 3090 im Vergleich zur 3080 zu teuer für das gebotene, wenn sich die Gerüchte wirklich so bewahrheiten.

Das große Plus, der RTX 3090, ist sowieso der 24GB große VRAM. Sollte da eine RTX 3080 kommen, dann wird es eng. Allerdings hatte die RTX 2080Ti auch ihre Probleme mit der RTX 2080 Super, dennoch hat sie sich offenbar gut verkauft.

Große Leistungssteigerungen sind sowieso nur zu erwarten, wenn die Boardpartner die TDP hochsetzen, also auf über 400W.
 
Sieht nicht so aus, als würde der rückseitige Speicher bei dieser Gigabyte-Karte besonders gut gekühlt werden. Die Nächste bitte.

Für die 3090 mit z.B 3x 8pin und sagen wir einen 10900k braucht man doch mindestens ein 900W NT wenn man sicher sein will das der PC an bleibt.

Muss man schauen, Ich hab 4*8Pin sogar an meinem 750W-Netzteil zur Verfügung. Das muss nichts heißen. Sollte mein Netzteil instabil werden, nehme ich einfach erstmal das Powertarget runter. Die 300W der 2080Ti sind hier kein Problem bisher. Und ich hatte schon ein Alternativbios auf der Karte mit 380+W und es gab auch keine Probleme. Einfach schauen was passiert wenn es soweit ist.
 
Werde auch zur 3090 greifen. Brauche den VRAM nicht, aber 10GB sind mir einfach zu wenig und das Performance+ nehm ich gerne mit.
 
Da würde ich gleich auf 1000W gehen, sicher ist sicher.
Ich denke auch das wäre sicherer, da freuen sich die NT Anbieter das sie ein Paar mehr 1000W NT absetzten als bisher.
Ganz witzig das wir versuchen bei Autos zu Sparen mit Abgasnorm und E Mobilität aber beim PC brauchen wir seit langen mal wieder größere NT als bisher der 650W Durchschnitt.
 
Da würde ich gleich auf 1000W gehen, sicher ist sicher.

Also ich hab ein 850 Watt Titanium NT.

Aber würde mir diesbezüglich keine Sorgen machen.
Zwar kann der 10900k übertaktet auch mal 250 Watt ziehen, aber das sind ganz kurze Peaks und eher die Ausnahme.
Selbst wenn die 3090 ein PT von 400 Watt hat, wäre man dann bei 650 Watt. Meinetwegen auch Mal mit etwas höheren Spikes.
Board und Wakü brauchen keine 100 Watt. Also selbst wenn würde man vllt bei 750 Watt landen, wenn denn CPU und GPU beide am Limit liefen zeitgleich. Es sei denn, man hat eine 3090 die 500 Watt zieht, dann wird es eng ,aber das würde mich jetzt nicht unbedingt reizen, bei dem geringen Leistungszuwachs.
 
Ich denke auch das wäre sicherer, da freuen sich die NT Anbieter das sie ein Paar mehr 1000W NT absetzten als bisher.
Ganz witzig das wir versuchen bei Autos zu Sparen mit Abgasnorm und E Mobilität aber beim PC brauchen wir seit langen mal wieder größere NT als bisher der 650W Durchschnitt.

Ich hoffe mal, dass man bei der EU davon nicht Wind bekommt, sonst werden solche Karten verboten und wir dürfen langfristig mit 75W Grakas zocken. Momentan ist Gaming in der EU Energiesparrichtline ja noch extrem privilegiert. Bei Selbstbau PCs gilt sie nicht und bei Komplett PCs interessiert nur der Stand By- und Leerlaufverbrauch. Für dedizierte Grakas gibt es einen Bonus auf den Stromverbrauch. Wenn man bestimmte Dinge verbaut hat (früher waren das ein 1000W Netzteil, 16GB RAM, eine CPU mit 5 Kernen sowie Grakas mit insgesamt 320GB/sec Speicherbandbreite, die Werte könnten angepasst worden sein), dann ist der Hersteller komplett von der Richtlinie befreit.

Es gab mal 2012 das Gerücht, die EU könnte Grakas, wie damals die HD 7970, verbieten. Da lag Revolution in der Luft, das konnte man förmlich spüren. Ich hoffe mal, die EU schaut da weiterhin weg, wobei es schwierig wird, wenn Gaming PCs und Konsolen erst einmal einen Stromverbrauch im Kilowattbereich haben.
 
Sowas kommt vermutlich erst, wenn die Grafikkarten die Leistungsaufnahme von Staubsaugern haben oder so.

Wenn der falsche Beamte sich darauf einschießt, dann kann das recht schnell gehen. Gamer haben jetzt auch nicht so eine große Lobby, wie die Autokonzerne und auch die wurden übel rangenommen.

Da hilft dann nurnoch in den Untergrund gehen und den Kampf aufnehmen :ugly:

Sowas kommt vermutlich erst, wenn die Grafikkarten die Leistungsaufnahme von Staubsaugern haben oder so.
Abgesehen davon zieht eine Grafikkarte ja nicht ständig die maximale Leistung.

Wenn so eine 350W Karte in ihrem Leben 2000h auf dem Buckel hat (das ist jetzt extrem niedrig gerechnet, das sind 4 Jahre je 500h), dann sind das 1400kWh oder 420€. Wenn man intensiv zockt oder die Karte länger in Betrieb hält (meine 5 Jahre alte GTX 980Ti war 200€ wert, die legt man nicht unbedingt in die Schublade), dann kann das auch wesentlich mehr als das doppelte sein. Rein von der Energiemenge würde es sich lohnen. Genauso kann man die Konsolen auf 75W begrenzen, da ist viel Potential drin.

Momentan sind Gamer zu unwichtig, hoffen wir, dass das so bleibt.

EDIT:
Staubsauger ist ein gutes Stichwort. Die haben zwar durchaus 2000W gezogen, aber wieviel waren die im Betrieb? Bei mehr als 15 Min brauchte man schon ein etwas größeres Haus. Sind also meist unter 25kWh pro Jahr. Dennoch hat sich die EU dem angenommen und die ganzen billigen Staubsauger verboten. Ein Gaming PC ist da mit über einer Zehnerpotenz mehr dabei.
 
Dabei ist Blender ja eine Software die wirklich besser skaliert als Games und Co, da dürften wir uns also auf ein kleineres Plus gefasst machen.

Ergo ist die 3090 im Vergleich zur 3080 zu teuer für das gebotene, wenn sich die Gerüchte wirklich so bewahrheiten.

MfG Föhn.
 
Bei jedem Rechner ein stärkeres NT und höherer Verbrauch pro Stunde. Jeder sollte wissen, daß das natürlich nicht Hundert Jahre so weiterlaufen kann. Spätestens bei einem Wohnzimmer-Stromkreis der mit 3600W belastet ist ist Schluß. Und Drehstrom im Wohnzimmer kommt wohl ersteinmal nicht.
An manchen Stellen ein paar Watt zu sparen ist dann Unsinn, wenn der Rechner das 10 fache verjubelt. Die Digitalisierung der Häuser wird da nochmal etwas draufpacken.
 
Zurück