• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

XD-User

PCGH-Community-Veteran(in)
Big Chip in der 80er Klasse? Das war früher immer so!

Nur weil man mit Kepler dem Kunden sein Portfolio extrem kundenfeindlich veränderte und den Mittelklasse Chip 104 als High End verkaufte aka GTX 680 und die TI/Titan Karten in der Klasse neu erschaffen hat, ist dass jetzt nichts neues.

Es ist eher nur der richtige und für uns als Konsumenten vernünftige Schritt bei diesen inzwischen abnormalen Preisen sowas zu bieten...

Bei der 8000/9000er/200er/400er/500er Reihe war das komplett normal, da war der Vollausbau eine GTX 580 (449€), was heute eine Titan (2.500€+) ist, eine GTX 570 (389€) ist heute eine TI (1300+€) Karte, nur dass sich die Preise ungefähr verfierfacht bis fünffacht haben...

Also nur eine positive Entwicklung, im optimalsten Fall weiß nVidia das AMD mit Big Navi halbwegs vernünftige Konkurrenz liefert.
 

gerX7a

Software-Overclocker(in)
350W dürften einfach die Leistung sein, die der Kühler maximal abführen kann, niemand nutzt das aber aus, weil das Ding dann viel zu laut wird.

Na wen das so ist, dann legen die Hersteller ihre Designs wohl nur zum Spaß dafür aus.
Beispielsweise die Radeon HD 6990 war für 375 W max. TBP ausgelegt und die Titan Z zog problemlos über 470 W (ohne kurzfristige Peaks einzurechnen) und das sind schon alles alte Kamellen.
Wenn Igor bis zu 350 W in den Raum stellt, dann werden die größten Modelle (Titan und das Ti-Äquivalent) durchaus mehr Strom ziehen als die 2000er-Serie, aber das sagt erst mal nichts über die Qualität aus, denn wenn die Leistung stimmt, ist das ja ok.

Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken. Die FE-Modelle sind zwar nett, der großteil dürfte jedoch Custom-Designs nutzen, die weitaus mehr an die Grenzen gehen und das bereits in den Standardeinstellungen. Beispielsweise die KFA2 GeForce RTX 2080 Ti Hall of Fame zieht bereits um die 290 W und kann mit Max-OC-Settings bei 2175 MHz auf bis zu 375 W getrieben werden, ist also alles nicht so ungewöhnlich ...
 

Xaphyr

Software-Overclocker(in)
Wird neue Hardware nicht effizienter...:ugly::schief:

Gruß
Naja, effizienter wäre bei gleichem Verbrauch mehr Leistung, oder?
Mir ist nicht ganz klar, warum so viele bei 320W über Ineffizienz lamentieren, wenn der Rest nicht bekannt ist?

Wenn die neue 3080 FE jetzt also 320W zieht, ist das zu den 225W der 2080FE ein mehr von 42%.
Wenn sie dafür aber 43% mehr Leistung bringt, ist sie damit doch schon effizienter, oder?

Über Effizienz kann man doch erst sprechen, wenn die Leistung auch bekannt ist, oder versteh ich da was falsch?
 
Zuletzt bearbeitet:

seahawk

Volt-Modder(in)
Na wen das so ist, dann legen die Hersteller ihre Designs wohl nur zum Spaß dafür aus.
Beispielsweise die Radeon HD 6990 war für 375 W max. TBP ausgelegt und die Titan Z zog problemlos über 470 W (ohne kurzfristige Peaks einzurechnen) und das sind schon alles alte Kamellen.
Wenn Igor bis zu 350 W in den Raum stellt, dann werden die größten Modelle (Titan und das Ti-Äquivalent) durchaus mehr Strom ziehen als die 2000er-Serie, aber das sagt erst mal nichts über die Qualität aus, denn wenn die Leistung stimmt, ist das ja ok.

Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken. Die FE-Modelle sind zwar nett, der großteil dürfte jedoch Custom-Designs nutzen, die weitaus mehr an die Grenzen gehen und das bereits in den Standardeinstellungen. Beispielsweise die KFA2 GeForce RTX 2080 Ti Hall of Fame zieht bereits um die 290 W und kann mit Max-OC-Settings bei 2175 MHz auf bis zu 375 W getrieben werden, ist also alles nicht so ungewöhnlich ...

Und der Kühlkörper und Board waren für mehr ausgelegt.
 
E

eclipso

Guest
Darüber hinaus dürfte das die wenigsten HighEnd-Anwender erschrecken.
Auf jeden Fall dürfte man jetzt wissen, warum sie den Schuldigen für diese News suchen. Es ist ein reines Vorszenario ohne jedweden Serienstatus und nun erwarten alle den Hyper-Bigcooler von Nv der sich vermutlich zwischenzeitlich nicht mal produktionsabhängig bewährt, oder andere Mängel aufdeckt werden.

Das ist natürlich mehr als ärgerlich, schon wenn die dazugehörigen TBP Werte durchs www geistern, obwohl noch nicht mal final. Änderungen können jederzeit vorgenommen werden.
 

Basileukum

Software-Overclocker(in)
350 Watt, das wäre schon was. :D

Vor allem wenn man sich vorstellt wohin die Reise dann geht. Die 4000 Generation dann bei 400 Watt, die 5000 Generation bei 480 Watt oder so.... :D
 

Incredible Alk

Moderator
Teammitglied
Wie kannst du die Effizienz ohne Kenntnis der Leistung beurteilen?

Sagen wir mal so: Ich gehe auch nicht davon aus, dass die Performance (mindestens) im gleichen Maße steigt wie der Stromverbrauch sollten die 350W da tatsächlich der echte Verbrauch werden.

Zusätzlich legt die erkennbare Strategie sollten diese Annahmen stimmen (dicken Chip bringen, viel Strom reindrücken) nahe, dass man mit Gewalt vorne bleiben will (vgl. Intel...) und Effizienz in dem Szenario keinen hohen Stellenwert mehr hat.

Wie gesagt das kann alles anders kommen weil wir wissen es ja nicht. Aber angenommen die Daten hier würden wirklich stimmen dann riecht das mehr nach Dampfhammer als nach Effizienzwunder. ;)
 

Basileukum

Software-Overclocker(in)
Wie kannst du die Effizienz ohne Kenntnis der Leistung beurteilen?

Das wiederum ist einfach zu beantworten. Wir leben in einer Fortschrittswelt, daran hängt auch der Glaube der Massen in vielen Teilaspekten (Ideologien, Wissenschaft, Politik, aber auch Unterhaltungskultur usw.), Fortschritt ist eine Art Vision, ein Mantra in allen Lebensbereichen, gerade in der aktuell zerfallenden sogenannten "westlichen" Welt.

Ich muß heute nicht mehr auf 12 Pferden sitzen oder diese vor meiner Kutsche haben um 12PS zu handhaben, da reicht ein Roller dafür. Deshalb erwarten wir auch immer mehr Leistung, und das bei weniger Leistungsaufnahme und dazu sollten die Karten auch kleiner werden! So schaut es aus!

Wenn das nicht der Fall ist, dann stimmt etwas mit dem Mantra nicht. Dann wird das nix mit zum Mars fliegen. :D Wenn das so weitergeht, dann müßen wir uns in 5 Jahren ein extra Netzteil für die Graka alleine kaufen (überspitzt formuliert). Nein so schlimm ist es nicht, da es ja auch schon früher "saugstarke" GPUs gab, aber man darf ja etwas überspitzen.
 

LastManStanding

PCGH-Community-Veteran(in)
320-350 Watt ohne OC finde ich jetzt nicht schlimm hauptsachen deie Wärme geht gut weg.
Ich habe irgendwie die Vermutung das Nvidia ihre Chips auch besser Koordinieren möchte. Eventuell um den Preis gewohnt hoch aber nicht "höher" zu halten, aber dennoch die Umsätze zu steigern.
So Richtig Angst dürfte Nvidia wohl kaum vor den AMD GPUs haben. Aber weit weg können sie scheinbar dennoch nicht sein.
 

Xaphyr

Software-Overclocker(in)
Es ist eine Sache darüber zu spekulieren, aber eine ganz andere zu sagen, dass die Karten definitiv ineffizient werden.
Was einfach nervt ist, dass viele einfach "Gerüchte" und "Vermutungen" nehmen und sich daraus ihre eigenen Tatsachen basteln und die als absolute Wahrheit präsentieren.
Und selbst wenn das Spitzenmodell 400W säuft, wird es dennoch genug Käufer dafür geben. Und auch von den bisherigen "nVidia ist geiler weil effizienter" sicher nicht zu wenige.
 
E

eclipso

Guest
Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich höher sein als das, was maximal angegeben wird. ;-)

MfG Föhn.
Kann möglich sein, da du aber nichts von FE liest und den Partnern die PG133 (erst mal) nicht angeboten wird (sondern bisher die PG132 Platine ohne Ausschnitt), kann es eine Sonderedition sein. Wie mitgeteilt im EVT Stadium, also früher Engineer-Status mit Leistungsmerkmalen die für die Produktion geeignet wären. Jetzt prüft man, ob das klappt oder nicht und wie es dann in Serienstreuung und mit der Quali aussehen würde.

Es kann bedeuten, dass das ziemlich teuer wird und Alleinstellungsmerkmale mitbringt, also selektierte GPUs wie bei den alten FE's, wenn es sich final durchsetzt.

Grundsätzlich sollte man davon ausgehen das eine 3080@Stock mit geringerem Takt oder teildeaktiviert daherkommt (SI auf jeden Fall), aber auf GA102 basiert. Es gibt bisher nur ein Lebenszeichen von diesen drei Konfigurationen.

Wie weit soll es noch runtergehen 3*nm? Atomzählerei ist das.
:D N5 (5nm irgendwas) dann überlegt TSMC auch schon wie's weiter gehen soll.
 
Zuletzt bearbeitet von einem Moderator:

troppa

Software-Overclocker(in)
Hm, hatte die Fotos eigentlich unter "Da hatte aber jemand Spaß mit Photoshop" abgelegt. Aber wenn Nvidia wirklich eine Ermittlung startet, heißt das für mich, dass das zumindest Design-Samples sind.

Bei nur ca. 20 cm Länge wundere ich mich aber doch, wie da alles draufpassen und mit dieser Kühlkonstruktion 320 bzw. 350 Watt effizient abgeführt werden sollen. (Sagt mir jetzt bitte nicht der Quatsch wird noch in 12nm gefertigt.) Vlt. hat da Nvidia noch ein Kühlerass im Ärmel...

Schade nur, dass die Karten wohl noch teuerer werden als ich erwartet habe, wenn der Kühler schon tatsächlich $150 kosten soll. Dazu noch die Sacklochbohrungen und wohl noch eine höher PCB-Layeranzahl durch die kurze Platine. Puh dann wird die RTX3080 mal min. 1000€ kosten. Hoffentlich haben die wenigsten nicht an PCIe Adaptern gespart, sonst siehts ja bescheuert aus, wenn da hinten am Wasserblock noch ein Haufen - wohl möglich auch noch bunter - Kabel runterhängen, aber kauf wahrscheinlich ja sowieso ein Customdesign, wenn ich mir das denn überhaupt noch leisten kann...
 

Khabarak

BIOS-Overclocker(in)
Und der Kühlkörper und Board waren für mehr ausgelegt.

Wenn die Leistungsaufnahme nicht signifikant steigen würde, gäbe es keinen Bedarf für so ein massives Upgrade des Kühlers, im Vergleich zur 2000er Serie.
Das ist ein [Edit]dual[/Edit] slot Design mit nochmals gewachsenen Lüftern.
Bisher haben bei den 2080 TIs und auch den RTX Titan Modellen dual Slot Kühler gereicht - die FEs waren nicht wirklich langsamer, als die massiv überzüchteten HOF, oder die Lightning Modelle.

Selbst die 2080 TI HOF sieht weniger massiv aus, als die angeblichen 3080 Kühler:
https://image1280.macovi.de/images/product_images/1280/1288878_4__72339-4.jpg

Edit: Sorry, ist ja doch nur ein Dual Slot Design. Dennoch deutlich aufgebohrt im Vergleich zu vorherigen FEs.
 
Zuletzt bearbeitet:

dampflokfreund

PC-Selbstbauer(in)
Interessant das würde indirekt die Gerüchte bestätigt.

VRAM ist aber komisch, vorherige Gerüchte besagen 384 Bit Interface bei 12 GB VRAM bei der 3080 Ti, nicht 11 GB bei 352 Bit.
 
Zuletzt bearbeitet:

Schnitzel1979

Freizeitschrauber(in)
hoffe auf 24 Gb VRam bei der Titan sowie einen Preis unter 2000 Euro; wenn noch die Gpu Leistung stimmt,
dann kommt die. Karte in die engere Auswahl
 

onkel-foehn

Software-Overclocker(in)
hoffe auf 24 Gb VRam bei der Titan sowie einen Preis unter 2000 Euro; wenn noch die Gpu Leistung stimmt,
dann kommt die. Karte in die engere Auswahl

Die Titan hat doch bereits schon 24 GB ! Nur kostet diese halt immer noch 2850 €.
Wenn Ampere raus kommt, dann bekommst die JETZIGE Titan evtl. gebraucht unter 2000 €.
Viele Späße damit ... ;-)

MfG Föhn.
 

Pu244

Lötkolbengott/-göttin
Oder Silizium ist am Ende. Wie weit soll es noch runtergehen 3*nm? Atomzählerei ist das.

Physikalisch wären 20 Siliziumatome (meines Wissens) die Grenze, ab dann übernimmt der Tunneleffekt. Das wären etwa 2nm. Natürlich kann man jetzt nicht so exakt fertigen, denn es gibt eine gewisse Streuung. Man geht von etwa 3nm aus, wobei das reale 3nm sind und nicht diese Prozessbezeichnung,
 

Buggi85

Software-Overclocker(in)
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.
 

derneuemann

BIOS-Overclocker(in)
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.

Ob 350W verkehrt klingen, hängt ja an der Leistung.
Die Produktreihe wird sich ja nach unten fortsetzen.
 

D3N$0

BIOS-Overclocker(in)
Sollte sich das ganze bewahrheiten ist das ein Schritt in die falsche Richtung. Mehr Leistung ist zwar wünschenswert aber nicht durch höheren Verbrauch, dieser sollte gleich bleiben oder besser noch sinken.
10-12GB VRam finde ich ebenfalls als etwas knapp, 24GB fände ich jedoch utopisch. Die 80er mit 10-12GB und die ti/90 mit 16 fände ich ok, die Karten darunter alle mit 8GB bis zur 50er Reihe, der würde ich dann 6GB spendieren.
Die Preise steigen hoffentlich nicht wieder, ansonsten kaufe ich in Zukunft in der Holzklasse, mehr wie 550€ gebe ich für eine GPU nicht aus.
 

Buffalo-Phil

PC-Selbstbauer(in)
Bei der TBP und dem Kühldesign kann man ja richtig was an Leistung erwarten. Wenn die dazu noch in 7nm gefertigt werden bedeutet das, dass NVidia auf max. Leistung geht. Damit würden sie eine völlig neue Welt erschaffen. Wäre eine nette Wiedergutmachung nach den 2000ern.

Aber über 300W klingt irgendwie verkehrt.

Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.
 

derneuemann

BIOS-Overclocker(in)
Sollte sich das ganze bewahrheiten ist das ein Schritt in die falsche Richtung. Mehr Leistung ist zwar wünschenswert aber nicht durch höheren Verbrauch, dieser sollte gleich bleiben oder besser noch sinken.
10-12GB VRam finde ich ebenfalls als etwas knapp, 24GB fände ich jedoch utopisch. Die 80er mit 10-12GB und die ti/90 mit 16 fände ich ok, die Karten darunter alle mit 8GB bis zur 50er Reihe, der würde ich dann 6GB spendieren.
Die Preise steigen hoffentlich nicht wieder, ansonsten kaufe ich in Zukunft in der Holzklasse, mehr wie 550€ gebe ich für eine GPU nicht aus.

Und nochmal, es hängt an der Leistung die erbracht wird. Wenn eine 3090 zum Beispiel ein Board hat mit 350W TBD und dann real eine TDP von , ich schätze mal 275-300W, dabei aber (nur mal so theoretisch) die doppelte Leistung einer 2080TI bei 260W erreicht. Dann ist das eine tolle Leistung und deutlich effizienter.

Bewusst überdeutlich gemacht. Ich erwarte nicht, das die 3090 doppelt so schnell sein wird.

Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird

Eine GTX 1080ti hat garantiert auch 320W TBD

und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.

Das wundert mich auch, es werden bewusst, oder unbewusst Details ignoriert. Keiner hat bisher gesagt, das die Karten eine TDP von 350, oder 320W haben. Das soll die Leistung sein, auf die das Board ausgelegt ist. Diese ist immer höher gewesen, als dann die TDP der Karte.

Wenn die Karrten 350W schlucken passen sie perfekt zu einer Comet Lake CPU, beide total ineffizient und nicht zeitgemäß.

Wenn du die zusammen bringst, willst du damit auch zocken. Dann ist der Comet Lake aber nicht wirklich weniger effizient, als ZEN2. Laut PCGH Tests mit Verbrauchsmessungen in Spielen.

Und ob die Nvidia Karte 200, 250, oder 300, oder gar 350W verbraucht, lässt zu 100% sicher noch kein Urteil über die Effizienz zu. Dazu muss man immer rest die erbrachte Leistung in Relation dazu bringen.

Wenn ich mal spekulieren würde... Dann würde ich schon einiges von so einer neuen Ampere erwarten. Ich denke das es ordentlich mehr Leistung gibt (endlich), hoffe auch das Big Navi richtig gut wird, damit es einen harten Schlagabtausch geben kann.
 

deady1000

Volt-Modder(in)
Angenommen die Nomenklatur kommt hin:

3080, 10GB
3080 Super, 11GB
3090, 24GB

Ganz ehrlich NVIDIA, ich hasse euch. :ugly:
Die wissen genau, dass sich 99%, selbst wenn sie viel Geld in die Hand nehmen würden, maximal ne 3080 Super leisten könnten. Und dann bleibt man wieder auf den fucking 11GB stehen. Was soll der Mist? Ich könnte mir in den Arsch beißen, dass ich mir 2017 nicht die GTX1080 Ti geholt habe. Diese Karte war scheinbar was für die Ewigkeit. Nvidia will wohl, dass wir für immer auf der Stelle treten. Immer ne neue Generation, aber Mehrleistung bekommt man nur, wenn man die Preise mitgeht. Bei den erwarteten Preisen hätte man sich auch ne RTX2080Ti kaufen können und wäre auf dem gleichen Level wie die RTX3080 Super.

Und ganz toll, dass Nvidia jetzt den Namen 3090 etabliert. Die soll wohl die nächste Evolutionsstufe in der Preispolitik darstellen. 1999€ oder was?
 

Kondar

BIOS-Overclocker(in)
Stimme dir zu, aber wenigstens sind es keine 8 mehr.

So wie Nvidia sich in den letzten Jahren verhalten hat ist es aber sehr wahrscheinlich sogar noch richtig. Kann mir nicht vorstellen das eine 3080 oder 3070 mit 16 GB kommt...
solche Sprünge macht NVIDIA nicht mehr..

jaaa aber
Ich finde selbst mit 11 GB können die ihre Karten behalten.
Das traurige ist ja das die Leistungstechnisch auch keine großen Sprünge machen sollen (hatte was von nur ~30 bis 50% gelesen) und zusätzlich die zuwenig Speicher bei wieder ~850€
für die RTX 3080. Man sollte im Hinterkopf behalten das die ~Super Modelle erst zwei Jahre später erscheinen könnten.
Auch die bis zu 350Watt stimmen mich nicht wirklich positiv.

Ich hoffe das da AMD was deutlich besseres macht.
Mehr Speicher sollte kein Problem sein und Leistungstechnisch aufhohlen sollte hoffendlich kein Prob. sein.
Würde mich aber erst kaputt lachen wenn die AMD Karten dann mehr Speicher, (gleich)schnell, weniger Strom und dann noch günstiger sein sollten.
Würde dann aus Prinzip mir ne zweite Karte kaufen um CF zu testen :ugly:
 

4thVariety

Software-Overclocker(in)
RT unterstützt eh kein Spiel, DLSS schaltet jeder ab, damit liegt die Hälfte der Kerne brach und man hat wieder seine 150W.

An Stelle von Nvidia wäre ich auch sauer über das Leak, denn mit 10GB Speicher würde ich eine 3080 als Totgeburt bezeichnen. Konsolen kommen mit 16GB und bei Nvidia hat es schon Tradition eine Karte erst mit mülligem Speicherausbau zu veröffentlichen bevor nachgebessert wird auf Kosten der Early Adopters. Vgl. 1060 3GB, oder 960 2GB. Genauso wird es den 3080 10GB Kunden gehen. Halbes Jahr später kommt eine mit 20GB und man denkt sich dann schönen Dank und hängt in den neuen Spielen auf mittleren Einstellungen fest.

Selbst wenn eine AMD Karte 10% langsamer wäre, mit mehr Speicher als eine 10GB Nvidia wäre sie trotzdem das zukunftssichere Angebot. Spöttisch könnte man auch sagen Nvidia braucht ja auch nicht mehr als 10GB, die rendern ja eh bald alles auf 540p und lassen DLSS drüberlaufen um es 4k zu nennen.
 
Oben Unten