RTX 3090 Performance - Gerüchte sprechen von nur 10 % Mehrleistung gegenüber RTX 3080

Ich fordere einen Test, wo mal zwischen Cache/Allokation und tatsächlicher Nutzung im VRAM unterschieden wird.
Sehr schwierig bis unmöglich.

Heizwunder waren vorher auch nicht AMD exklusiv, die GTX 980Ti wurde von einigen Herstellern auf bis zu 350W geprügelt. Das waren dann echte Höllenkarten, die konnten sogar am Anfang die GTX 1080 schlagen, bei doppelter Leistungsaufnahme.
Nur wird eine 3090 mit manuell gemaxtem Powertarget halt schon über 400 Watt liegen. Mit gemoddeten Biosversionen geht es dann sicher Richtung 500 Watt.
 
Aha Deady schlägt nun einen anderen Weg ein! Zuerst ne Woche vor Release 100 Posts es wird eine 3090 mit Wakü definitiv denn ich brauch das für VR und die Karte ist der Hammer und wie Geil usw.

Jetzt wird über die Karte hergezogen die 3080 ist auf einmal die Karte schlecht hin, bei der 3090 glühen die Rams bei der 3080er nicht :) Ach wie ist das herrlich wenn man sich an Posts von einem User noch genau erinnnern kann und dann paar Tage später neue Posts lesen kann die auf einmal ganz anders klingen :)

Eine Woche vor Release war die RTX 3090, in den Gerüchten, auch noch 20% schneller als jetzt. 10% Mehrleistung, gegenüber der RTX 3080, sind doch etwas mager, bei 30% sieht die Welt ein wenig anders aus.

Sehr schwierig bis unmöglich.

Machbar ist es. Ich erinnere mich an einen Test, in dem die Frametimes analysiert wurde und man so rausbekam, wann dem Spiel der VRAM zu klein war. Aber das ist wirklich schwer und ungewöhnlich.
 
Bei dem Crysis test war der Ryzen 9 3900x aber auch auf 4,4 Ghz übertaktet. Das macht auch noch mal ne ecke aus was der Typ im Video auch sagt. Denke bei Stock hätte es nicht abgeschaltet.
Aber gebe dir schon recht. Die Dinger saufen Watt ohne Ende
Er meinte aber wahrscheinlich nicht, dass das OC auf 4.4GHz was augemacht hat, sondern eher das extreme RAM-OC.

Eigentlich bekommt man mit fixem CPU-OC bei Ryzen3000 eher einen Leistungsabfall in Spielen, weil man durch den festen Takt von 4.4GHz den Singlecore-Boost von bis zu 4.55GHz und bei neueren Modellen eventuell bis zu 4.65GHz verliert. Also eigentlich macht das OC da nicht wirklich Sinn. Weiß daher nicht, warum man das da überhaupt gemacht hat. Crysis Remastered läuft eh nur auf wenigen Threads, somit hätte man lieber Precision Boost arbeiten lassen sollen, um den vollen Boost zu erhalten.

Beim RAM kann man bei Ryzen am meisten rausholen, da sich mit steigendem RAM-Takt, der Infinity-Fabrik-Takt der CPU erhöht und das knallt dann tatsächlich bei den FPS rein. Das wurde aber auch wahrscheinlich gemacht.

Eine Woche vor Release war die RTX 3090, in den Gerüchten, auch noch 20% schneller als jetzt. 10% Mehrleistung, gegenüber der RTX 3080, sind doch etwas mager, bei 30% sieht die Welt ein wenig anders aus.
Korrekt. Es deuteten alle Sterne auf ein fettes Leistungsplus hin.
Jetzt scheint ja abgesehen vom Speicher nicht wirklich was zu passieren.
 
Ich bin gespannt was die 3080 mit 20 GiB kosten wird, denn dann wird klar werden wie die Speicherbestückung von 24 GiB bei der 3090 ins Gewicht fällt.

Ich auch.

Den Preis für den doppelten Speicher einer 3080 S/TI schätzte ich auf Minimum 250€... Und auch wenn sie gleich schnell sein sollte, wird sie mit mehr Speicher noch ein wenig mehr Strom brauchen und auch noch ein klein wenig heißer werden. Also so ganz handlich wird die 3080 mit 20GB auch nicht sein - ob dann 750W Netztteile noch für alle Fälle reichen, ebenso fraglich.
 
250€ Aufpreis wären schon übel, wenn man dann in den meisten Szenarien noch nicht mal einen Vorteil daraus ziehen kann. Jedenfalls wäre das Preis-Leistungs-Verhältnis dieser Karte dann schon ein ganzes Stück schlechter.
 
Diese 30W werden vermutlich schon von den 14 zusätzlichen G6X-Chips aufgefressen.


Bereits die 3080 rennt ins 370W-Powerlimit. Ich gehe von 500W für eine ungezügelte 3090 aus.
Ach du alter Schwede 500W und ich will doch nur meine 200W besser 180W Karte haben, die mir
dann hoffentlich auch meine +/-2080ti FE Leistung bringen wird.
Mal sehen ob ich die auch bekommen werde.
 
Diese 30W werden vermutlich schon von den 14 zusätzlichen G6X-Chips aufgefressen.

Puha, gute Anmerkung.
Laut Igor braucht ein GDDR6x Chip etwa 2,5 Watt gegenüber 2 Watt von GDDR6.
Mit den 14 Chips mehr wären das schon 35 Watt. Der Speichercontroller braucht aber noch etwas mehr,
wenn er ein 384 Bit SI statt des 320 Bit SI wie bei der 3080 befeuern muss.
Der GPU selbst steht bei 350 Watt dann etwas weniger Strom zum hochtakten zur verfügung als der 3080 bei 320 Watt.
 
Eigentlich ist es egal ob die 3090 10 oder 20 Prozent schneller ist als die 3080, die Preisdifferenz ist die Mehrleistung nicht wert. Ich bin gespannt was die 3080 mit 20 GiB kosten wird, denn dann wird klar werden wie die Speicherbestückung von 24 GiB bei der 3090 ins Gewicht fällt.

Die Mehrleistung kommt halt aus dem (fast) Vollausbau des GA102 (der Vollausbau mit 10752 Shadern und 48GB VRAM is der Quattro vorbehalten), der dann mit 10496Shadern daherkommt, wo die 3080 mit 8704 auskommen muss, der Takt ist dazu etwas niedriger, dafür der des VRAM leicht höher, effektiv sind das dann maximal 20% mehr Rohleistung, das dürften dann 10-15% mehr Gamepower ergeben.

Was das mehr an VRAM ausmacht, darauf bin ich auch gespannt, wenn man das in Relation zu den 10GB der 3080 setzt, die ja jetzt schon in einigen Games in UHD oder mit heftigem Modding überlaufen, weshalb auch ich auf die 20GB-er warte.

Der Preis dürfte auch interessant werden, wenn die dann 'Ti', wenn man nach dem einen Link geht, Ende des Jahres kommt, sind da ja nicht nur 10GB mehr drauf, sondern auch mehr Shader aktiv, die dann schon sehr nahe an die 3090 herankommen dürfte und ja mit vermuteten 999$ / € kommen dürfte.

 
Zuletzt bearbeitet:
Wir warten erst mal ab wie BigNavi performt und was diese Karten an Strom ziehen.
Bin da sehr gespannt ob der ganze Hype gerechtfertigt war.

Allerdings habe ich da zunehmends auch ein etwas besseres Gefühl, zumindest im Verlgeich mit Ampere, da Ampere ja wirklich schon hart an der Kotzgrenze läuft und sich BigNavi da zumindest hinsichtlich der Effizienz und des großzügigen Speichers von seiner positiven Seite zeigen könnte. Ob die Rohleistung in Spielen gut ist und ob RayTracing gut umgesetzt wurde steht auf einem anderen Blatt. Auch den Launch könnte man ähnlich wie Nvidia ordentlich verkacken, da der Run auf die Karten genau so gigantisch sein dürfte, wie bei der RTX3080.
 
Bis jetzt ist Ampere in Vollflop. Die 3090 ist unsinnig, die 3080 säuft Strom wie ein Loch und hat zu wenig VRAM.

Da wird Big Navi ein leichtes Spiel haben.

Was bist du denn für ein vollpfosten?

Sie säuft weder wie ein loch noch hat sie zuwenig vram. immer schön schwachsinn nachlabern.....
das sie bei der leistung etwas mehr strom benötigt ist klar, aber so schlimm ist das jetzt nicht. immer dieses sinnlose gebashe.
 
Bis jetzt ist Ampere in Vollflop. Die 3090 ist unsinnig, die 3080 säuft Strom wie ein Loch und hat zu wenig VRAM.

30% schneller, als die RTX 2080Ti und 500€ billiger?

Von miraus kann es mehr solche Flops geben.

Da wird Big Navi ein leichtes Spiel haben.

AMD kann ja noch alle überraschen und den ultimativen Flop abliefern. Phenom I, FX, Fiji und Vega, AMD hat bei vielen innovativen Dingen ins Klo gegriffen, von daher steht Big Navi unter keinem guten Stern.

Ich hoffe, ich irre mich, aber ich habe an dem Wundercache, der das Speicherinterface kompensieren soll, meine Zweifel.
 
Was bist du denn für ein vollpfosten?

Sie säuft weder wie ein loch noch hat sie zuwenig vram. immer schön schwachsinn nachlabern.....
das sie bei der leistung etwas mehr strom benötigt ist klar, aber so schlimm ist das jetzt nicht. immer dieses sinnlose gebashe.

Es ist eine 80er Karte und das ist imho das Kernproblem. Für eine 80er wäre der VRAM noch okay, die Leistungsaufnahme ist es nicht, gerade wenn man es mit 980/1080/2080 vergleicht. Und wenn man sieht wie wenig Leistung die Karte mit 270W verliert, dann kann man einfach sagen, dass NV hier bei der Spezifikation voll daneben gegriffen hat. Sollte sich das Delta zur 3090 bei 10-15% einpendeln sogar umso mehr. Gelocked bei 250-260W und das mit vielleicht 5-10% langsamer wäre es ein Topprodukt. So ist es dass was man bei Vega und anderen AMD Karten in der Vergangenheit zu Recht kritisiert hat: Ein völlig ausgequetschtes und dadurch unnötig ineffizientes Produkt.
 
Ja die 3080er laufen deutlich oberhalb ihres Sweetspots. Das ist sehr untypisch für Nvidia und kennt man in der Form tatsächlich eher von anderen Firmen. Findes auch sehr komisch, dass die Karte bei 20% weniger Spannung nur noch 270W verbraucht und sie praktisch die gleiche Leistung erzielt. Da frag man sich... warum?! Die hätten die RTX3080 einfach mit zB 270W rausbringen sollen und dann wäre die ganze Diskussion über Effizienz und Stromverbrauch eine andere. Auch ein gewisses Übertaktungspotential wäre vorhanden gewesen und ein etwas besserer Abstand zur RTX3090 und einem eventuellen Super-Modell ebenfalls. Jetzt wirkt es so als wären die RTX3080er an ihrer absoluten Kotzgrenze und das wirft dieses defintiv Fragen auf.
 
Puha, gute Anmerkung.
Laut Igor braucht ein GDDR6x Chip etwa 2,5 Watt gegenüber 2 Watt von GDDR6.
Mit den 14 Chips mehr wären das schon 35 Watt. Der Speichercontroller braucht aber noch etwas mehr,
wenn er ein 384 Bit SI statt des 320 Bit SI wie bei der 3080 befeuern muss.
Der GPU selbst steht bei 350 Watt dann etwas weniger Strom zum hochtakten zur verfügung als der 3080 bei 320 Watt.

Die 10GB DDR6X dieser EVGA mit +500mhz auf Memory brauchen alleine schon 95 Watt. Siehe MVDDC im Screenshot und über 400 Watt insgesamt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Was auch die heftigen Temperaturen über 100° in Igors Video erklärt. Mit der 3090 kannst du das mal Faktor 2,4 rechnen. Auch mit mehr Powerbudget wird das nicht für große Performance Sprünge reichen.
Als reine Gaming Karte wäre ich bei der 3090 nach aktuellen Wissenstand erstmal vorsichtig.
 
Zurück