• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3090 Performance - Gerüchte sprechen von nur 10 % Mehrleistung gegenüber RTX 3080

Atma

PCGH-Community-Veteran(in)
Ich fordere einen Test, wo mal zwischen Cache/Allokation und tatsächlicher Nutzung im VRAM unterschieden wird.
Sehr schwierig bis unmöglich.

Heizwunder waren vorher auch nicht AMD exklusiv, die GTX 980Ti wurde von einigen Herstellern auf bis zu 350W geprügelt. Das waren dann echte Höllenkarten, die konnten sogar am Anfang die GTX 1080 schlagen, bei doppelter Leistungsaufnahme.
Nur wird eine 3090 mit manuell gemaxtem Powertarget halt schon über 400 Watt liegen. Mit gemoddeten Biosversionen geht es dann sicher Richtung 500 Watt.
 

Pu244

Lötkolbengott/-göttin
Aha Deady schlägt nun einen anderen Weg ein! Zuerst ne Woche vor Release 100 Posts es wird eine 3090 mit Wakü definitiv denn ich brauch das für VR und die Karte ist der Hammer und wie Geil usw.

Jetzt wird über die Karte hergezogen die 3080 ist auf einmal die Karte schlecht hin, bei der 3090 glühen die Rams bei der 3080er nicht :) Ach wie ist das herrlich wenn man sich an Posts von einem User noch genau erinnnern kann und dann paar Tage später neue Posts lesen kann die auf einmal ganz anders klingen :)

Eine Woche vor Release war die RTX 3090, in den Gerüchten, auch noch 20% schneller als jetzt. 10% Mehrleistung, gegenüber der RTX 3080, sind doch etwas mager, bei 30% sieht die Welt ein wenig anders aus.

Sehr schwierig bis unmöglich.

Machbar ist es. Ich erinnere mich an einen Test, in dem die Frametimes analysiert wurde und man so rausbekam, wann dem Spiel der VRAM zu klein war. Aber das ist wirklich schwer und ungewöhnlich.
 

deady1000

BIOS-Overclocker(in)
Bei dem Crysis test war der Ryzen 9 3900x aber auch auf 4,4 Ghz übertaktet. Das macht auch noch mal ne ecke aus was der Typ im Video auch sagt. Denke bei Stock hätte es nicht abgeschaltet.
Aber gebe dir schon recht. Die Dinger saufen Watt ohne Ende
Er meinte aber wahrscheinlich nicht, dass das OC auf 4.4GHz was augemacht hat, sondern eher das extreme RAM-OC.

Eigentlich bekommt man mit fixem CPU-OC bei Ryzen3000 eher einen Leistungsabfall in Spielen, weil man durch den festen Takt von 4.4GHz den Singlecore-Boost von bis zu 4.55GHz und bei neueren Modellen eventuell bis zu 4.65GHz verliert. Also eigentlich macht das OC da nicht wirklich Sinn. Weiß daher nicht, warum man das da überhaupt gemacht hat. Crysis Remastered läuft eh nur auf wenigen Threads, somit hätte man lieber Precision Boost arbeiten lassen sollen, um den vollen Boost zu erhalten.

Beim RAM kann man bei Ryzen am meisten rausholen, da sich mit steigendem RAM-Takt, der Infinity-Fabrik-Takt der CPU erhöht und das knallt dann tatsächlich bei den FPS rein. Das wurde aber auch wahrscheinlich gemacht.

Eine Woche vor Release war die RTX 3090, in den Gerüchten, auch noch 20% schneller als jetzt. 10% Mehrleistung, gegenüber der RTX 3080, sind doch etwas mager, bei 30% sieht die Welt ein wenig anders aus.
Korrekt. Es deuteten alle Sterne auf ein fettes Leistungsplus hin.
Jetzt scheint ja abgesehen vom Speicher nicht wirklich was zu passieren.
 

Acgira

Freizeitschrauber(in)
Ich bin gespannt was die 3080 mit 20 GiB kosten wird, denn dann wird klar werden wie die Speicherbestückung von 24 GiB bei der 3090 ins Gewicht fällt.

Ich auch.

Den Preis für den doppelten Speicher einer 3080 S/TI schätzte ich auf Minimum 250€... Und auch wenn sie gleich schnell sein sollte, wird sie mit mehr Speicher noch ein wenig mehr Strom brauchen und auch noch ein klein wenig heißer werden. Also so ganz handlich wird die 3080 mit 20GB auch nicht sein - ob dann 750W Netztteile noch für alle Fälle reichen, ebenso fraglich.
 

deady1000

BIOS-Overclocker(in)
250€ Aufpreis wären schon übel, wenn man dann in den meisten Szenarien noch nicht mal einen Vorteil daraus ziehen kann. Jedenfalls wäre das Preis-Leistungs-Verhältnis dieser Karte dann schon ein ganzes Stück schlechter.
 

sandworm

Freizeitschrauber(in)
Diese 30W werden vermutlich schon von den 14 zusätzlichen G6X-Chips aufgefressen.


Bereits die 3080 rennt ins 370W-Powerlimit. Ich gehe von 500W für eine ungezügelte 3090 aus.
Ach du alter Schwede 500W und ich will doch nur meine 200W besser 180W Karte haben, die mir
dann hoffentlich auch meine +/-2080ti FE Leistung bringen wird.
Mal sehen ob ich die auch bekommen werde.
 

EyRaptor

BIOS-Overclocker(in)
Diese 30W werden vermutlich schon von den 14 zusätzlichen G6X-Chips aufgefressen.

Puha, gute Anmerkung.
Laut Igor braucht ein GDDR6x Chip etwa 2,5 Watt gegenüber 2 Watt von GDDR6.
Mit den 14 Chips mehr wären das schon 35 Watt. Der Speichercontroller braucht aber noch etwas mehr,
wenn er ein 384 Bit SI statt des 320 Bit SI wie bei der 3080 befeuern muss.
Der GPU selbst steht bei 350 Watt dann etwas weniger Strom zum hochtakten zur verfügung als der 3080 bei 320 Watt.
 

Cosmas

Software-Overclocker(in)
Eigentlich ist es egal ob die 3090 10 oder 20 Prozent schneller ist als die 3080, die Preisdifferenz ist die Mehrleistung nicht wert. Ich bin gespannt was die 3080 mit 20 GiB kosten wird, denn dann wird klar werden wie die Speicherbestückung von 24 GiB bei der 3090 ins Gewicht fällt.

Die Mehrleistung kommt halt aus dem (fast) Vollausbau des GA102 (der Vollausbau mit 10752 Shadern und 48GB VRAM is der Quattro vorbehalten), der dann mit 10496Shadern daherkommt, wo die 3080 mit 8704 auskommen muss, der Takt ist dazu etwas niedriger, dafür der des VRAM leicht höher, effektiv sind das dann maximal 20% mehr Rohleistung, das dürften dann 10-15% mehr Gamepower ergeben.

Was das mehr an VRAM ausmacht, darauf bin ich auch gespannt, wenn man das in Relation zu den 10GB der 3080 setzt, die ja jetzt schon in einigen Games in UHD oder mit heftigem Modding überlaufen, weshalb auch ich auf die 20GB-er warte.

Der Preis dürfte auch interessant werden, wenn die dann 'Ti', wenn man nach dem einen Link geht, Ende des Jahres kommt, sind da ja nicht nur 10GB mehr drauf, sondern auch mehr Shader aktiv, die dann schon sehr nahe an die 3090 herankommen dürfte und ja mit vermuteten 999$ / € kommen dürfte.

 
Zuletzt bearbeitet:

deady1000

BIOS-Overclocker(in)
Wir warten erst mal ab wie BigNavi performt und was diese Karten an Strom ziehen.
Bin da sehr gespannt ob der ganze Hype gerechtfertigt war.

Allerdings habe ich da zunehmends auch ein etwas besseres Gefühl, zumindest im Verlgeich mit Ampere, da Ampere ja wirklich schon hart an der Kotzgrenze läuft und sich BigNavi da zumindest hinsichtlich der Effizienz und des großzügigen Speichers von seiner positiven Seite zeigen könnte. Ob die Rohleistung in Spielen gut ist und ob RayTracing gut umgesetzt wurde steht auf einem anderen Blatt. Auch den Launch könnte man ähnlich wie Nvidia ordentlich verkacken, da der Run auf die Karten genau so gigantisch sein dürfte, wie bei der RTX3080.
 

Drohtwaschl

Komplett-PC-Käufer(in)
Bis jetzt ist Ampere in Vollflop. Die 3090 ist unsinnig, die 3080 säuft Strom wie ein Loch und hat zu wenig VRAM.

Da wird Big Navi ein leichtes Spiel haben.

Was bist du denn für ein vollpfosten?

Sie säuft weder wie ein loch noch hat sie zuwenig vram. immer schön schwachsinn nachlabern.....
das sie bei der leistung etwas mehr strom benötigt ist klar, aber so schlimm ist das jetzt nicht. immer dieses sinnlose gebashe.
 

Pu244

Lötkolbengott/-göttin
Bis jetzt ist Ampere in Vollflop. Die 3090 ist unsinnig, die 3080 säuft Strom wie ein Loch und hat zu wenig VRAM.

30% schneller, als die RTX 2080Ti und 500€ billiger?

Von miraus kann es mehr solche Flops geben.

Da wird Big Navi ein leichtes Spiel haben.

AMD kann ja noch alle überraschen und den ultimativen Flop abliefern. Phenom I, FX, Fiji und Vega, AMD hat bei vielen innovativen Dingen ins Klo gegriffen, von daher steht Big Navi unter keinem guten Stern.

Ich hoffe, ich irre mich, aber ich habe an dem Wundercache, der das Speicherinterface kompensieren soll, meine Zweifel.
 

seahawk

Volt-Modder(in)
Was bist du denn für ein vollpfosten?

Sie säuft weder wie ein loch noch hat sie zuwenig vram. immer schön schwachsinn nachlabern.....
das sie bei der leistung etwas mehr strom benötigt ist klar, aber so schlimm ist das jetzt nicht. immer dieses sinnlose gebashe.

Es ist eine 80er Karte und das ist imho das Kernproblem. Für eine 80er wäre der VRAM noch okay, die Leistungsaufnahme ist es nicht, gerade wenn man es mit 980/1080/2080 vergleicht. Und wenn man sieht wie wenig Leistung die Karte mit 270W verliert, dann kann man einfach sagen, dass NV hier bei der Spezifikation voll daneben gegriffen hat. Sollte sich das Delta zur 3090 bei 10-15% einpendeln sogar umso mehr. Gelocked bei 250-260W und das mit vielleicht 5-10% langsamer wäre es ein Topprodukt. So ist es dass was man bei Vega und anderen AMD Karten in der Vergangenheit zu Recht kritisiert hat: Ein völlig ausgequetschtes und dadurch unnötig ineffizientes Produkt.
 

deady1000

BIOS-Overclocker(in)
Ja die 3080er laufen deutlich oberhalb ihres Sweetspots. Das ist sehr untypisch für Nvidia und kennt man in der Form tatsächlich eher von anderen Firmen. Findes auch sehr komisch, dass die Karte bei 20% weniger Spannung nur noch 270W verbraucht und sie praktisch die gleiche Leistung erzielt. Da frag man sich... warum?! Die hätten die RTX3080 einfach mit zB 270W rausbringen sollen und dann wäre die ganze Diskussion über Effizienz und Stromverbrauch eine andere. Auch ein gewisses Übertaktungspotential wäre vorhanden gewesen und ein etwas besserer Abstand zur RTX3090 und einem eventuellen Super-Modell ebenfalls. Jetzt wirkt es so als wären die RTX3080er an ihrer absoluten Kotzgrenze und das wirft dieses defintiv Fragen auf.
 

Der_Apfeldieb

Kabelverknoter(in)
Puha, gute Anmerkung.
Laut Igor braucht ein GDDR6x Chip etwa 2,5 Watt gegenüber 2 Watt von GDDR6.
Mit den 14 Chips mehr wären das schon 35 Watt. Der Speichercontroller braucht aber noch etwas mehr,
wenn er ein 384 Bit SI statt des 320 Bit SI wie bei der 3080 befeuern muss.
Der GPU selbst steht bei 350 Watt dann etwas weniger Strom zum hochtakten zur verfügung als der 3080 bei 320 Watt.

Die 10GB DDR6X dieser EVGA mit +500mhz auf Memory brauchen alleine schon 95 Watt. Siehe MVDDC im Screenshot und über 400 Watt insgesamt.

Recommented content - Imgur An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.


Was auch die heftigen Temperaturen über 100° in Igors Video erklärt. Mit der 3090 kannst du das mal Faktor 2,4 rechnen. Auch mit mehr Powerbudget wird das nicht für große Performance Sprünge reichen.
Als reine Gaming Karte wäre ich bei der 3090 nach aktuellen Wissenstand erstmal vorsichtig.
 

deady1000

BIOS-Overclocker(in)
Die 10GB DDR6X dieser EVGA mit +500mhz auf Memory brauchen alleine schon 95 Watt.
Holy shit. xD Ja aber dann kannste es doch besser lassen.
Igor meinte ursprünglich die 1GB-Module sollten ohne OC pro Stück ca 3W verbrauchen, also bei der 3080 ca 30W und bei der RTX3090 dann 72W. Wenn die Module jetzt auf bis zu 9,5W/Stück laufen, dann Prost Mahlzeit! Rechnerisch 228W nur für den VRAM LOOOL. Was man da wohl für einen kranken Kühler braucht...
 

ftw3080

Komplett-PC-Käufer(in)
Holy shit. xD Ja aber dann kannste es doch besser lassen.
Igor meinte ursprünglich die 1GB-Module sollten ohne OC pro Stück ca 3W verbrauchen, also bei der 3080 ca 30W und bei der RTX3090 dann 72W. Wenn die Module jetzt auf bis zu 9,5W/Stück laufen, dann Prost Mahlzeit! Rechnerisch 228W nur für den VRAM LOOOL.
kompletter quatsch das der speicher soviel braucht :lol: :lol: :lol: :lol:
 

4thVariety

Software-Overclocker(in)
Es ist der gleiche Chip, TA102, nur mit 350W TDP statt 320W. Was soll da anderes rauskommen als 10%, außer die Software funktioniert besonders gut mit niedrigen Taktraten und skaliert zudem besser über mehr Cuda Cores.

Ich würde ja nichts sagen, wenn die 3080 thermisch gesehen noch Luft nach oben hätte, aber da stirbt ja jetzt schon der Speicher fast den Hitzetod.

Das war bei der 2080 TI anders, die basierte auf dem TU102, während die 2080 auf dem TU104 basierte. Der Unterschied zwischen 3080 und 3090 ist eher vergleichbar mit den Unterschieden die wir bei 2070S, 2080 und 2080S sehen. Zwischen den Karten ist nicht viel Unterschied, warum sollte das bei 3080 und 3090 der Fall sein die auch auf dem gleichen Chip basieren. Nvidia kocht auch nur mit Wasser.
 

gerX7a

Software-Overclocker(in)
Holy shit. xD Ja aber dann kannste es doch besser lassen.
Igor meinte ursprünglich die 1GB-Module sollten ohne OC pro Stück ca 3W verbrauchen, also bei der 3080 ca 30W und bei der RTX3090 dann 72W. Wenn die Module jetzt auf bis zu 9,5W/Stück laufen, dann Prost Mahlzeit! Rechnerisch 228W nur für den VRAM LOOOL. Was man da wohl für einen kranken Kühler braucht...

Als kleine Anmerkung: Die Module ziehen nicht plötzlich soo viel mehr. Natürlich steigt die Abwärme, aber durch die Takterhöhung erhöht sich der Gesamtverbrauch aller speicherrelevanten Komponenten.
Die BGAs verheizen etwas mehr, auf dem PCB zwischen GPU und BGAs geht mehr verloren und auch innerhalb der GPU wird mehr an den Controllern/PHY verheizt. ;-)

Es ist der gleiche Chip, TA102, nur mit 350W TDP statt 320W. [...]

Kleine korrigierende Anmerkung: Der GA102 der 3080 ist auf etwa 215 W bis maximal 230 W TDP ausgelegt. die 320 W sind die TBP der gesamten Karte mit allem Drum und Dran inkl. Speicher, RGB-BlinkBlink, Lüftern und den beträchtlichen Wandlerverlusten (messtechnisch sind es gar bis zu 330 W TBP)
Recht hast du aber damit, dass es der gleiche Chip ist, nur dass bei der 3080 ganze 16 SMs deaktiviert sind, während die Variante der 3090 lediglich 2 SMs deaktiviert und zudem noch alle 12 Speichercontroller hat.
 
Zuletzt bearbeitet:

Bonja_Banana

PC-Selbstbauer(in)
ich denke meine nächste Karte wird entweder eine 3090 werden oder eine 3080 mit 20GB Grafikspeicher. Eigentlich reicht mir die 3080 in allem möglichen Belangen locker.

Oder ich warte erstmal ab bis es eine 3080 Ti gibt (preis und Leistung ) und was von AMD kommt. Bisher ist die 2080 Ti unter Wasser noch perfekt.
 

ftw3080

Komplett-PC-Käufer(in)
ich denke meine nächste Karte wird entweder eine 3090 werden oder eine 3080 mit 20GB Grafikspeicher. Eigentlich reicht mir die 3080 in allem möglichen Belangen locker.

Oder ich warte erstmal ab bis es eine 3080 Ti gibt (preis und Leistung ) und was von AMD kommt. Bisher ist die 2080 Ti unter Wasser noch perfekt.
da wirsja höchste zeit zum aufrüsten :lol: die haben euch echt bei den eiern wie kleine kinder
 

Decrypter

Software-Overclocker(in)
Sie säuft weder wie ein loch noch hat sie zuwenig vram. immer schön schwachsinn nachlabern.....
das sie bei der leistung etwas mehr strom benötigt ist klar, aber so schlimm ist das jetzt nicht. immer dieses sinnlose gebashe.

An deiner Stelle würde ich zuallerst erst einmal an deiner Umgangsform arbeiten !
Wenn jemand anderer Meinung, ist doch noch lange kein Grund hier gleich Beleidigungen abzulassen. Das zeugt eher davon, das einem die Argumente ausgehen und an der Aussage was Wahres drann ist.

Ja, die 3080 ist schnell. Aber es ist auch Fakt, das sie an das Leistungslimit geprügelt wurde und um das zu erreichen, eine Unmenge an Energie säuft. Bis zu 370W Leistungsaufnahme (und auch mehr) dürften bisher bei einer Gaming Karte selbst von AMD in der Form bisher unerreicht sein.

Interessant ist auch, wie hier von der grünen Fraktion mit so derart mit zweierlei Maß gemessen wird. AMDs Vega Karten und die R9390 haben auch heftig Energie gesoffen und dafür von den grünen Fanboys in der Luft zerrissen worden. Und nun muß Nvidia anscheinend den gleichen Weg gehen, da wohl Big Navi wider Erwarten doch Konkurrenz auftaucht. Aber komischerweise ist das bei Nvidia dann alles nicht so schlimm und auch gerechtfertigt. Ob das so sein wird, wird sich erst noch zeigen müssen ....
 

Algo

Freizeitschrauber(in)
Jensen hat sich doch überschlagen bei der Vorstellung der 3090, immerhin ist sie die 8k Karte die 3080 nur eine 4k Karte. Das dann am Ende nur ~10% rauskommen, kann eigentlich gar nicht sein.

Wird wohl Zeit für den Wonderdriver.
Naja, aber es gab eben keine Vergleiche der Performance zu anderen Karten. Bei 3070 und 3080 gab es die sehr wohl. Und ich denke das Problem der 3090 wird ihr Powerlimit sein. Da ginge vielleicht noch mehr wenn nicht bei 350 Watt Schluss wäre.
 

-ElCritico-

Freizeitschrauber(in)
"RTX 3090 Performance - Gerüchte sprechen von nur 10 % Mehrleistung gegenüber RTX 3080"

Und die Leute so:

"Is mir egal, 10GB sind zu wenig, ich zahle jetzt, statt 699€ einer RTX3080FE, ganze 1999€ für eine Gigabyte Aorus RTX3090 Xtreme mit 10-15% Mehrleistung uNd DaNn HaBe IcH wEnIgStEnS mEhR rAm AlS dIe RTX3080 pEaSeAnTs, MuHaHaHa!!einself"

Also ich find's lächerlich und komplett am Leben vorbei. :ugly:
Die Karte kann man maximal im professionellen Bereich guten Gewissens empfehlen, wenn es rein um den Speicher geht.
Für Gamer macht die Karte null Sinn - wirklich NULL.

Und in kleinerem Maßstab trifft das auch auf das 20GB Modell der 3080 zu.
10GB mehr Speicher für +200€? Nur für mehr Speicher so viel mehr Geld???
Überhaupt kein guter Deal, wenn es neben dem Speicher offensichtlich keine Mehrleistung gibt.
Denn zwischen RTX3080 und RTX3090 passt bei 10-15% Leistungsunterschied kein Blatt mehr.

Da performen die RTX3080-10G und RTX3080-20G ja in nahezu jedem Benchmark exakt gleich und für einen Unterschied müsste man da schon oberhalb von 4K rumbenchen. Sollte das 20GB-Modell mit dem gleichen Powertarget kommen, dann hat die sogar eher noch einen Nachteil, wenn da zusätzliche 30W in den Speicher gepumpt werden müssen.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

@Topic
Offensichtlich ist die Karte was für Prosumer, ein Gamer kann damit wenig anfangen.
 

Basileukum

Software-Overclocker(in)
Das halte ich nun für Geschwätz.

Es gibt ja bei Nvidia die Möglichkeit der (ti) und (super) Karten, und von diesem Geschäftsmodell wird man wohl auch in dieser Generation Gebrauch machen. Das würde ja bei 10% Abstand sinnlos werden.

Da die Grakas aber mittlerweile so auf Kante genäht sind, was die Leistung anbelangt, was war das bei der 3080, irgendwas mit 3% durch OC, muß da wohl ein größerer Abstand her. Die Frage ist dann, was eine 3080 (super/ti) werden wird? Der beschnittene Chip einer 3090 wohl. Oder es kommen bei den (ti) und (super) Karten einfach nur mehr VRam zum Zug, das kann ja auch sein. Wir werden es sehen.
 

Mecker_Manni

Komplett-PC-Aufrüster(in)
Ach wen wunderts. Mittlerweile sollte auch der größte idiot gemerkt haben was Nvidia da eigtl abzieht.
Das einzige was wirklich gewachsen ist, ist der preis, und nicht die Performance.
 

sandworm

Freizeitschrauber(in)
30% schneller, als die RTX 2080Ti und 500€ billiger?
Von miraus kann es mehr solche Flops geben.

Der Vergleich hinkt eine 3080 lässt sich so gut wie überhaupt nicht übertakten.
Die 2080ti hingegen schon und dann ist der Abstand zwischen den beiden Karten bei ca. gleichem Verbrauch nur noch bei 15%
 

Knochey

Freizeitschrauber(in)
Scheinbar verstehen manche hier mal wieder nicht, dass sie einfach nicht die Zielgruppe für die Grafikkarte sind. Als jemand der viel im Grafikdesign/VFX Bereich macht ist die Karte mit 24GB Grafikspeicher für "nur" 1.500€ ein absoluter Segen.

Nur weil ihr ein Produkt nicht versteht müsst ihr es nicht als allgemein sinnlos beschreiben. Sagt doch einfach, dass die Karte für euch nicht interessant ist.
 

glurak

Komplett-PC-Käufer(in)
Ich denke einfach das die Spiele die diese Karten inklusive PCIe 4.0 ausnutzen einfach noch fehlen. Die werden kommen. Aber eben erst in 2-3 Jahren.

PCIe3.0 war auch damals zero Performance unterschied zu 2.0 Und dann auf einmal oh ja doch es ist ein erheblicher vorteil.

Derzeit fehlen auch CPUs um 4.0 voll auszunutzen. Die kommen aber in naher zukunft. Auch das Direct Storage von Microsoft fehlt. Und vieles andere. Wartet doch einfach mal ab bis auch alles was die Karte kann auch genutzt werden kann.
 

Mephisto_xD

BIOS-Overclocker(in)
Wundert das irgendjemanden? Die Karte hat zwar 20% mehr CUDA-Cores, aber nur 10% mehr TDP. Der real anliegende Takt dürfte also niedriger als der der 3080 sein um im TDP-Limit zu bleiben, ergo gibt es halt weniger Peformanceboost als die Anzahl der Shader erstmal vermuten lässt.

Die Karte ist die neue Titan: Großer Speicher, ansonsten rausgeschmissenes Geld. Aber anders als die Ti-Modelle der vergangenen Generationen ist diesmal die „Vernunftoption“ RTX 3080 selbst für Spieler knapp mit Speicher ausgestattet, weswegen mehr Leute auf die 3090 schielen - und dann natürlich enttäuscht sind, wenn sie mehr als das doppelte für wenig Mehrleistung und eine zeitgemäße Speicherausstattung hinblättern müssen.

Für mich käme auch nur die 3090 in Frage, ich werde mir keine GPU kaufen, die weniger Speicher als meine dreieinhalb Jahre alte Grafikkarte hat. Aber der Preis ist halt einfach unverschämt. Man kann nur hoffen dass noch eine 3080S mit doppeltem Speicher, oder eine konkurrenzfähige AMD GPU auf den Markt kommt.
 

Blackvoodoo

Volt-Modder(in)
Egal was ihr sagt und egal was der/die Test/s zeigen werden, ich kaufe mir die 3090 und nichts darunter.
Die 3080 ist gut 30% vor der 2080ti. Die 3090 10% vor der 3080. Also ist die 3090 40% vor der 2080ti. Finde das ist schon ordentlich.
Und 14 GB mehr Speicher kostet halt.
 

PCTom

BIOS-Overclocker(in)
Schon bei den Benches 2 Spiele gesehen wo der Speicher der 3080 übergelaufen ist, dank der 3090 im direkten Vergleich konnte man gut sehen was die Spiele bei 4K brauchten. Bin mal gespannt wann die 3080 20G erscheint, sicher erst nach dem AMD Launch.
 
Oben Unten