Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

XD-User

PCGH-Community-Veteran(in)
Big Chip in der 80er Klasse? Das war früher immer so!

Nur weil man mit Kepler dem Kunden sein Portfolio extrem kundenfeindlich veränderte und den Mittelklasse Chip 104 als High End verkaufte aka GTX 680 und die TI/Titan Karten in der Klasse neu erschaffen hat, ist dass jetzt nichts neues.

Es ist eher nur der richtige und für uns als Konsumenten vernünftige Schritt bei diesen inzwischen abnormalen Preisen sowas zu bieten...

Bei der 8000/9000er/200er/400er/500er Reihe war das komplett normal, da war der Vollausbau eine GTX 580 (449€), was heute eine Titan (2.500€+) ist, eine GTX 570 (389€) ist heute eine TI (1300+€) Karte, nur dass sich die Preise ungefähr verfierfacht bis fünffacht haben...

Also nur eine positive Entwicklung, im optimalsten Fall weiß nVidia das AMD mit Big Navi halbwegs vernünftige Konkurrenz liefert.
 

gerX7a

BIOS-Overclocker(in)
350W dürften einfach die Leistung sein, die der Kühler maximal abführen kann, niemand nutzt das aber aus, weil das Ding dann viel zu laut wird.

Na wen das so ist, dann legen die Hersteller ihre Designs wohl nur zum Spaß dafür aus.
Beispielsweise die Radeon HD 6990 war für 375 W max. TBP ausgelegt und die Titan Z zog problemlos über 470 W (ohne kurzfristige Peaks einzurechnen) und das sind schon alles alte Kamellen.
Wenn Igor bis zu 350 W in den Raum stellt, dann werden die größten Modelle (Titan und das Ti-Äquivalent) durchaus mehr Strom ziehen als die 2000er-Serie, aber das sagt erst mal nichts über die Qualität aus, denn wenn die Leistung stimmt, ist das ja ok.

Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken. Die FE-Modelle sind zwar nett, der großteil dürfte jedoch Custom-Designs nutzen, die weitaus mehr an die Grenzen gehen und das bereits in den Standardeinstellungen. Beispielsweise die KFA2 GeForce RTX 2080 Ti Hall of Fame zieht bereits um die 290 W und kann mit Max-OC-Settings bei 2175 MHz auf bis zu 375 W getrieben werden, ist also alles nicht so ungewöhnlich ...
 

Xaphyr

Software-Overclocker(in)
Wird neue Hardware nicht effizienter...:ugly::schief:

Gruß
Naja, effizienter wäre bei gleichem Verbrauch mehr Leistung, oder?
Mir ist nicht ganz klar, warum so viele bei 320W über Ineffizienz lamentieren, wenn der Rest nicht bekannt ist?

Wenn die neue 3080 FE jetzt also 320W zieht, ist das zu den 225W der 2080FE ein mehr von 42%.
Wenn sie dafür aber 43% mehr Leistung bringt, ist sie damit doch schon effizienter, oder?

Über Effizienz kann man doch erst sprechen, wenn die Leistung auch bekannt ist, oder versteh ich da was falsch?
 
Zuletzt bearbeitet:

seahawk

Lötkolbengott/-göttin
Na wen das so ist, dann legen die Hersteller ihre Designs wohl nur zum Spaß dafür aus.
Beispielsweise die Radeon HD 6990 war für 375 W max. TBP ausgelegt und die Titan Z zog problemlos über 470 W (ohne kurzfristige Peaks einzurechnen) und das sind schon alles alte Kamellen.
Wenn Igor bis zu 350 W in den Raum stellt, dann werden die größten Modelle (Titan und das Ti-Äquivalent) durchaus mehr Strom ziehen als die 2000er-Serie, aber das sagt erst mal nichts über die Qualität aus, denn wenn die Leistung stimmt, ist das ja ok.

Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken. Die FE-Modelle sind zwar nett, der großteil dürfte jedoch Custom-Designs nutzen, die weitaus mehr an die Grenzen gehen und das bereits in den Standardeinstellungen. Beispielsweise die KFA2 GeForce RTX 2080 Ti Hall of Fame zieht bereits um die 290 W und kann mit Max-OC-Settings bei 2175 MHz auf bis zu 375 W getrieben werden, ist also alles nicht so ungewöhnlich ...

Und der Kühlkörper und Board waren für mehr ausgelegt.
 
E

eclipso

Guest
Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken.
Auf jeden Fall dürfte man jetzt wissen, warum sie den Schuldigen für diese News suchen. Es ist ein reines Vorszenario ohne jedweden Serienstatus und nun erwarten alle den Hyper-Bigcooler von Nv der sich vermutlich zwischenzeitlich nicht mal produktionsabhängig bewährt, oder andere Mängel aufdeckt werden.

Das ist natürlich mehr als ärgerlich, schon wenn die dazugehörigen TBP Werte durchs www geistern, obwohl noch nicht mal final. Änderungen können jederzeit vorgenommen werden.
 

Basileukum

Software-Overclocker(in)
350 Watt, das wäre schon was. :D

Vor allem wenn man sich vorstellt wohin die Reise dann geht. Die 4000 Generation dann bei 400 Watt, die 5000 Generation bei 480 Watt oder so.... :D
 

Incredible Alk

Moderator
Teammitglied
Wie kannst du die Effizienz ohne Kenntnis der Leistung beurteilen?

Sagen wir mal so: Ich gehe auch nicht davon aus, dass die Performance (mindestens) im gleichen Maße steigt wie der Stromverbrauch sollten die 350W da tatsächlich der echte Verbrauch werden.

Zusätzlich legt die erkennbare Strategie sollten diese Annahmen stimmen (dicken Chip bringen, viel Strom reindrücken) nahe, dass man mit Gewalt vorne bleiben will (vgl. Intel...) und Effizienz in dem Szenario keinen hohen Stellenwert mehr hat.

Wie gesagt das kann alles anders kommen weil wir wissen es ja nicht. Aber angenommen die Daten hier würden wirklich stimmen dann riecht das mehr nach Dampfhammer als nach Effizienzwunder. ;)
 

Basileukum

Software-Overclocker(in)
Wie kannst du die Effizienz ohne Kenntnis der Leistung beurteilen?

Das wiederum ist einfach zu beantworten. Wir leben in einer Fortschrittswelt, daran hängt auch der Glaube der Massen in vielen Teilaspekten (Ideologien, Wissenschaft, Politik, aber auch Unterhaltungskultur usw.), Fortschritt ist eine Art Vision, ein Mantra in allen Lebensbereichen, gerade in der aktuell zerfallenden sogenannten "westlichen" Welt.

Ich muß heute nicht mehr auf 12 Pferden sitzen oder diese vor meiner Kutsche haben um 12PS zu handhaben, da reicht ein Roller dafür. Deshalb erwarten wir auch immer mehr Leistung, und das bei weniger Leistungsaufnahme und dazu sollten die Karten auch kleiner werden! So schaut es aus!

Wenn das nicht der Fall ist, dann stimmt etwas mit dem Mantra nicht. Dann wird das nix mit zum Mars fliegen. :D Wenn das so weitergeht, dann müßen wir uns in 5 Jahren ein extra Netzteil für die Graka alleine kaufen (überspitzt formuliert). Nein so schlimm ist es nicht, da es ja auch schon früher "saugstarke" GPUs gab, aber man darf ja etwas überspitzen.
 

LastManStanding

PCGH-Community-Veteran(in)
320-350 Watt ohne OC finde ich jetzt nicht schlimm hauptsachen deie Wärme geht gut weg.
Ich habe irgendwie die Vermutung das Nvidia ihre Chips auch besser Koordinieren möchte. Eventuell um den Preis gewohnt hoch aber nicht "höher" zu halten, aber dennoch die Umsätze zu steigern.
So Richtig Angst dürfte Nvidia wohl kaum vor den AMD GPUs haben. Aber weit weg können sie scheinbar dennoch nicht sein.
 

Xaphyr

Software-Overclocker(in)
Es ist eine Sache darüber zu spekulieren, aber eine ganz andere zu sagen, dass die Karten definitiv ineffizient werden.
Was einfach nervt ist, dass viele einfach "Gerüchte" und "Vermutungen" nehmen und sich daraus ihre eigenen Tatsachen basteln und die als absolute Wahrheit präsentieren.
Und selbst wenn das Spitzenmodell 400W säuft, wird es dennoch genug Käufer dafür geben. Und auch von den bisherigen "nVidia ist geiler weil effizienter" sicher nicht zu wenige.
 
E

eclipso

Guest
Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich höher sein als das, was maximal angegeben wird. ;-)

MfG Föhn.
Kann möglich sein, da du aber nichts von FE liest und den Partnern die PG133 (erst mal) nicht angeboten wird (sondern bisher die PG132 Platine ohne Ausschnitt), kann es eine Sonderedition sein. Wie mitgeteilt im EVT Stadium, also früher Engineer-Status mit Leistungsmerkmalen die für die Produktion geeignet wären. Jetzt prüft man, ob das klappt oder nicht und wie es dann in Serienstreuung und mit der Quali aussehen würde.

Es kann bedeuten, dass das ziemlich teuer wird und Alleinstellungsmerkmale mitbringt, also selektierte GPUs wie bei den alten FE's, wenn es sich final durchsetzt.

Grundsätzlich sollte man davon ausgehen das eine 3080@Stock mit geringerem Takt oder teildeaktiviert daherkommt (SI auf jeden Fall), aber auf GA102 basiert. Es gibt bisher nur ein Lebenszeichen von diesen drei Konfigurationen.

Wie weit soll es noch runtergehen 3*nm? Atomzählerei ist das.
:D N5 (5nm irgendwas) dann überlegt TSMC auch schon wie's weiter gehen soll.
 
Zuletzt bearbeitet von einem Moderator:

troppa

Software-Overclocker(in)
Hm, hatte die Fotos eigentlich unter "Da hatte aber jemand Spaß mit Photoshop" abgelegt. Aber wenn Nvidia wirklich eine Ermittlung startet, heißt das für mich, dass das zumindest Design-Samples sind.

Bei nur ca. 20 cm Länge wundere ich mich aber doch, wie da alles draufpassen und mit dieser Kühlkonstruktion 320 bzw. 350 Watt effizient abgeführt werden sollen. (Sagt mir jetzt bitte nicht der Quatsch wird noch in 12nm gefertigt.) Vlt. hat da Nvidia noch ein Kühlerass im Ärmel...

Schade nur, dass die Karten wohl noch teuerer werden als ich erwartet habe, wenn der Kühler schon tatsächlich $150 kosten soll. Dazu noch die Sacklochbohrungen und wohl noch eine höher PCB-Layeranzahl durch die kurze Platine. Puh dann wird die RTX3080 mal min. 1000€ kosten. Hoffentlich haben die wenigsten nicht an PCIe Adaptern gespart, sonst siehts ja bescheuert aus, wenn da hinten am Wasserblock noch ein Haufen - wohl möglich auch noch bunter - Kabel runterhängen, aber kauf wahrscheinlich ja sowieso ein Customdesign, wenn ich mir das denn überhaupt noch leisten kann...
 
Oben Unten