Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

Nordbadener

Freizeitschrauber(in)
Ich bringe die Karten einfach nicht zusammen. Sollten das 3080Titan, 3080Ti und 3080 sein, würde letztere beiden leistungsmäßig zu nah beisammen sein. Oder handelt es sich hierbei vielleicht um 3080Ti, 3080 und 3070? Das wäre dann wiederum arg viel Ram für die TI und eine recht flotte 3070.

Bin echt mal gespannt, was dieses Jahr noch so bringt. Spannend ist es alle mal.

Hieß es in den News am Jahresanfang nicht, Nvidia würde mit 7nm-Struktur die Leistungsaufnahme halbieren? Und jetzt kommen TDP-Angaben mit 320-350 Watt!!! Respekt, da geht was...
 

bynemesis

Software-Overclocker(in)
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk
 

x1337x

PC-Selbstbauer(in)
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk

Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
 
E

eclipso

Guest
Meine 1080Ti läuft mit 375w max.
stört mich auch nicht.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk

Nein nie darf sie nicht, weil sie nur 300w ziehen darf!:D

Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
Naja die 2070s ist auch kein Effizienzwunder. Trotzdem musst du eine große GPU auch mit Strom versorgen, wenn sie doppelt so schnell ausfällt aber nur 300-350w verpulvert ist sie gegenüber einer 215w GPU dann deutlich effizienter, denn zwei bräuchten ja 430w.
 
Zuletzt bearbeitet von einem Moderator:

TheGermanEngineer

BIOS-Overclocker(in)
Eigentlich wäre das doch die ideale Gelegenheit gewesen um mit 12 GB in der Mittelklasse aufzutreten und im High-End mit 16 GB zu arbeiten. 24 GB ist schon echt viel und für Spiele m.E. kaum sinnvoll, da müsste schon ordentlich Mehrleistung kommen dass sich das lohnt. So wie es jetzt aussieht, werden die 80er eher zu wenig Speicher haben und die ominöse 90er eher zu viel. Ja, zu viel Speicher geht ja eigentlich nie, aber wenn man mal an den Preis denkt, ist das schon etwas fraglich.

Ich meine mich an +50% Performance/Watt zu erinnern. Wenn gleichzeitig die TDP-Budgets um 50% steigen müssten das schon echte Klopper werden, aber da glaube ich ehrlich gesagt nicht dran.

Der neue potentielle FE-Kühler gefällt mir optisch leider überhaupt nicht. Ich hätte mir letztens beinahe doch noch eine Turing-FE gekauft, weil die Kühler einfach sehr sexy aussehen. So eine Ampere wird mir aber definitiv nicht in den Rechner kommen. Wobei das neue Kühlkonzept durchaus interessant ist. Wenn es eine Art "Umluftsystem" ist, dürfte das vielleicht erst die 350W mit zwei Lüftern im Dual-Slot ermöglichen. Ich sehe es schon kommen, dass wie bei Navi die meisten Customs schon Triple-Slots werden.
 

bynemesis

Software-Overclocker(in)
Warum das denn? OC?

Lohnt sich meiner Meinung nach kaum nachdem man gefühlt den doppelten Strom für 10% mehr Performance braucht. Die Effizienzkurve geht bei den meisten Grakas ab 120-180W steil bergab (meine 2070S hat bei 50% TDP immer noch 85-90% Leistung)
powerlimit aufs max. (=375w) und dann noch 2100mhz core + 6200mhz ram.

bringt nen guten boost. Stromverbrauch ist mir da egal. Ich brauch maximale Leistung.

Gesendet von meinem Mi Note 10 Lite mit Tapatalk
 
E

eclipso

Guest
Als EX-R9 390 Besitzer und jetzt Vega 64-Nutzer bin ich an hohe Verbräuche gewohnt und tweake gerne meine Grakas :D
Gruß T.
Das machen Nv Besitzer auch und nur weil auf dem Referenzpapier steht 250w darf ich das Powerbuget, dass mir mitgeliefert wird nicht ausnutzen? Wenn du einen Waküblock draufschnallst ist die Karte kaum thermisch limitiert und boostet dann auch bis um 2000GHz, sowas kostet nun mal. Custom zeigen ja @Stock schon (also im Werkszustand) wie das geht.

Natürlich kannst du auch undervolt tweaken und das Gegenteil erreichen, wenn man ein Takt- und FPS Ziel hat. Geht mit AMD und Nv.

Es kann möglich sein das Nv jetzt mehr an Grenzen geht, was AMD ja sowieso immer schon so umgesetzt hat, um der Serienstreuung Herr zu werden, dann bringen die Karten weniger OC Potential mit, sind dann aber im Werkstrimm schneller. In welchem Verhältnis muss man sehen.
 
Zuletzt bearbeitet von einem Moderator:

sunburst1988

Software-Overclocker(in)
Das würde sich dann wenigstens mal lohnen. Alles unter 16GB können die eigentlich behalten, besonders wenn die Leistung wieder nur so wenig steigt, wie bei Turing.

Gerade deswegen wundert es mich ja. Von 16gb ab der 3080 war ich jetzt eigentlich schon fast ausgegangen...

Wirklich Sinn ergibt es ja immer erst mit dem stärksten Modell. Nvidia hat es ja systematisch gestrichen, früher war alles, bis runter zu den unter 100€ Karten, SLI fähig.

Gerade nochmal geschaut. Bei Turing gab es SLI auch erst aber der 2080.
Aber stimmt schon, sinnvoll war es immer erst bei den High-End-Karten. Ausserdem stirbt die Technik sowieso langsam aus.
 

IronAngel

BIOS-Overclocker(in)
Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich niedriger sein als das, was maximal möglich wäre.

Ja hängt vom Game und Auflösung ab. Wenn die Karte dann aber doch mal belastet wird, hätte ich keine Lust auf einen Krach macher.:) 350 Watt mit Lüft weg kühlen ? Na viel Spass.

Aber wer weiß schon ob die Daten stimmen, oder der Chip ist so groß das es kein Problem wird.
 

Lichtspieler2000

Freizeitschrauber(in)
Ja Doraleous, das zeigt mal wieder dein technisches Unverständnis auf, die 2080ti zieht locker 380 Watt wenn man will, aber nur im "A Modus" und das PCB ist ein Serien PCB für professionelle Karten, denn die GT102 ist nichts weiter als ein teildeaktivierter Quadro.

Eine 2080 Ti benötigt etwa 275 Watt, genau nach ihrem Powertarget.
Die Stromversorgung (2x8Pin) ermöglicht 375 Watt. Hier sind 100 Watt Puffer. Gibt es eigentlich bei jeder Grafikkarte.

Nicht zwangsläufig. Die tatsächlich Leistungsaufnahme kann deutlich niedriger sein als das, was maximal möglich wäre.

Mit TBP ist TGP gemeint, somit zieht schon die 2080 320 Watt, heftig.
Sieht mir nach einer Verzweiflungstat aus.
 
Zuletzt bearbeitet:

MyticDragonblast

PC-Selbstbauer(in)
Gerade deswegen wundert es mich ja. Von 16gb ab der 3080 war ich jetzt eigentlich schon fast ausgegangen...

Das Risiko einer zweiten 1080ti will man auch bei NVidia nicht eingehen. Es ist unzweifelhaft, das gerade diese Karte die Verkäufe der großen RTX Karten gedämpft hat, mehr als RTX on zum Neupreis der 1080ti hat man nicht bekommen und das auch noch mit 3 Gb weniger Speicher. Wer wirklich sowas langlebiges will wird vmtl. vierstellig für eine xx90er Karte hinlegen müssen. Damit kann man den Großteil des Marktes davon abhalten, die folgende Serie zu überspringen.

Zur Sache mit dem Powerlimit:
Das ist ja der ganze Trick an der Sache, übers Powerlimit soll man selbst mit der besten Kühlung nicht kommen. Das kanibalisierte die eigenen Topmodelle(gerade bei gleichem Chip wie offensichtlich in der neuen Serie). Wenn NVidia wirklich gut ist, ist eine xx80er mit abgeschaltetem RGB und ohne Lüfter direkt an der Karte angeschlossen(wie beim extrem OC) niemals viel schneller als eine xx90er mit Werkssettings; deshalb ist der Wert da auch TBP und auf der Karte fest hinterlegt. Der Speicherunterschied differenziert dann zusätzlich(mehr gesamt Bandbreite aber auch leicht höherer Stromverbrauch).
 
Zuletzt bearbeitet:
E

eclipso

Guest
Eine 2080 Ti benötigt etwa 275 Watt, genau nach ihrem Powertarget.
Die Stromversorgung (2x8Pin) ermöglicht 375 Watt. Hier sind 100 Watt Puffer. Gibt es eigentlich bei jeder Grafikkarte.

Mit TBP ist TGP gemeint, somit zieht schon die 2080 320 Watt, heftig.
Sieht mir nach einer Verzweiflungstat aus.

3080!:D

Wobei GT102 (2080ti) und GT104 (2080) unterschiedliche Leistungsbereiche abdecken, und auch unterschiedliche PCB Ausführungen dafür genutzt werden.

Die 3080 soll ja grundsätzlich GA102 sein, also "Pin gleich" (dafür legt man dann kein gesondertes Kit auf). Scheint Selektion nach Leistungsbereichen zu sein (ohne A und B Dies im gleichen Leistungssegment - sondern dann non ti, ti, Titan). Steht auch so ähnlich in einem Artikel dbzgl.. Chips die die höchsten Anforderungen nicht schaffen, kann man immer noch mit höherer Voltage auf ein ähnliches Leistungsniveau prügeln. Siehe 2070s bei 215w. Trotzdem musst du den dann vermeintl. teildeaktiverten Bereich weiter mitversorgen (wenn man teildefekte SKU's verwendet), was bei sehr großen Designs kostet.
 

MyticDragonblast

PC-Selbstbauer(in)
Wahrscheinlich nicht. Reviews abwarten. 2080Ti/2080 bleiben auch 100 bzw. 75 unterhalb der maximale Leistungsaufnahme des PCBs.

Wenn es dann hinterher bei der 3080 doch nur 250W sind und der Kühler für 350W TDP ausgelegt ist, freuen wir uns über leisen Betrieb. Mir lieber als AMD-Style ein 250W Board mit 300W realer Leistungsaufnahme. Sag nur RX480.
Wenn der Kühler aufdreht weil der Chip warm wird hat der Chip auch weniger zu saufen, weil bei NVidia durch TBP begrenzt. Ich finde da den konservativen Ansatz von AMD ehrlicher, wo ich nicht durch leistungshungrige Propeller und LED-Disco im Worstcase weniger Fps habe. Bei Bedarf kann ich da sogar noch ganz klassisch die Karte den Stromtod sterben lassen per Bios-Mod.
 

seahawk

Lötkolbengott/-göttin
350W dürften einfach die Leistung sein, die der Kühler maximal abführen kann, niemand nutzt das aber aus, weil das Ding dann viel zu laut wird.
 
E

eclipso

Guest
Ich hörte Polaris 10 war sogar für 500w ausgelegt, ala RX480.:schief:

So ein Lineup hat vor allem einen Zweck, die Partner scheuen oft die teure Entwicklung und wenn sie Karten in diesem Segment verkaufen wollen, müssen sie sie komplett von Nv kaufen und verdienen daran nur wenig (AMD tut es ähnlich siehe RVII), wobei es kaum Freiheiten gibt Problemstellungen anders zu lösen. Davon profitiert vor allem der Hersteller selbst.

Das weder das Produktmanagement noch andere Bereiche darüber informiert wurden, ist eigentlich typisch dafür die Partner vor vollendete Tatsachen zu stellen. Ich weiß nicht ob das überall gut ankommt. Als Partner will man natürlich nicht, dass das eigene Image leidet und der Markenname darunter nicht verloren geht. Etwas weiterzuverkaufen, ist noch lange nicht selbst entwickelt. Egal wie gut oder schlecht es ist. Aber das wird hier kaum jemanden interessieren.

Es könnte sogar so sein, dass die Partner das Lineup aufgrund der Kostenentwicklung so nicht übernehmen wollten, das gab es schon siehe Titan.
 

paladin60

Freizeitschrauber(in)
Bei Nvidia können sie für ihre eigenen Kühler noch ein paar € mehr drauf schlagen falls die Entwicklung teurer wird, die Kunden zahlen es doch.
Nach der Vega64 dürfte es für die Partner auch nicht so schwierig sein für die Dinger einen Kühler zu entwickeln.
 

Incredible Alk

Moderator
Teammitglied
Also wie auch immer all das im Detail am Ende ausgeht (was jetzt eh keiner wissen kann) - es nähern sich zumindest die Anzeichen, dass NVidia dieses Mal durchaus nicht mehr so zurücklehnend im Sessel liegen kann bzw. sie zumindest BigNavi als stark im Vergleich zu Ampere einschätzen. Den großen Chip direkt zu bringen in vielen Ausführungen und mit ggf. sehr hoher TBP würde NV nicht machen wenn sie es nicht müssten.

Ich würde mich wirklich freuen wenns so kommt und die größte Navikarte mit der größten Amperekarte etwa bei der gleichen Performance und gleichem verbrauch rauskämen. Denn dann würde etwas passieren was wir seit Jahren nicht mehr kennen im GPU-Markt: Konkurrenz die Preise drückt! Unglaublich, sowas.

Das wäre dann die 3. Generation ohne Änderungen an der Speichergröße. Schwer vorstellbar...
Ich glaube es auch eher nicht. Andererseits ist bei NV nichts unmöglich, so peinlich eine RTX3090 mit nur 11GB auch wäre.
 
Oben Unten