Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?

Nachdem es kürzlich einen (angeblichen) Leak zum Kühler-Design der designierten Geforce RTX 3080 gab, soll Nvidia nach dem Ursprung suchen. Unterdessen gibt es auch neue Details zur vermeintlichen Technik.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080: Nvidia ermittelt angeblich nach Leak - Board für drei Modelle?
 
Auf Igors Lab habe ich jetzt nichts zur Titan gefunden.

Aber mehr als doppelt so viel Speicher auf der 90 gegenüber der 80 ti?
Und SLI auch erst bei der Königsklasse?

Ich zweifle da doch etwas an diesen Infos.
Wenn das Ganze aber der Wahrheit entsprechen sollte bekomme ich bei dem zu erwartenden Preis der 3090 doch etwas Magenschmerzen :ugly:

Es gilt also wie immer: Abwarten und ein Heißgetränk der Wahl konsumieren :daumen:
 
Ich hoffe auf ein Witz / Fake.
10 bzw.. 11 GB in der Entusiastenklasse sind 2020 einfach nur erbärmlich.

Stimme dir zu, aber wenigstens sind es keine 8 mehr.

So wie Nvidia sich in den letzten Jahren verhalten hat ist es aber sehr wahrscheinlich sogar noch richtig. Kann mir nicht vorstellen das eine 3080 oder 3070 mit 16 GB kommt... solche Sprünge macht NVIDIA nicht mehr..
 
Naja, vielleicht hat Nvidia ja ihre magische Tensor-VRAM-Compression, wenn nicht ist 10 GB in einer 3080 aber definitiv zu wenig.
 
Öhm.... 320 bis 350 Watt.... also das ist mal echt ne Hausnummer, mit OC werden es dann bis zu 450 oder wie...?
Also da würde ich eher Abstand nehmen wollen, wenn das so kommt.
Mit 250 Watt-Karten konnte ich bis jetzt immer leben, mit etwas Undervolting gingen die gut unter 200, wenn man es drauf angelegt hat, bei wenig Leistungseinbußen. Oder man konnte per UV übertakten, wie ich es bei meiner Larte aktuell mache, aber mehr als 250Watt kriegt die Karte nicht und wird sie auch nicht bekommen.

Also wäre das Thema Effizienz bei nvidia jetzt vom Tisch mit dieser TDP?

Naja abwarten, wie es wirklich kommt...
 
PCGH schrieb:
Dabei soll unter anderem auch eine RTX 3090 in Planung sein, die entweder das Titan-Branding ersetzen könnte oder sich als weitere Abstufung dazwischen schiebt.

Ich kann mir einfach nicht vorstellen, dass NV eine Dual-GPU Karte bringt. Schon gar nicht statt der Titan.
Oder soll das eine normale Karte werden? XX90 wäre dann eine sehr schlecht gewählte Bezeichnung.
 
Zuletzt bearbeitet:
Öhm.... 320 bis 350 Watt.... also das ist mal echt ne Hausnummer

Egal, was die für Leistung hat, mir selbst wäre das viel zu hoch. Ich hatte viele Jahre Grafikkarten mit hohen TDP Werten. So etwas baue ich mir nicht mehr ein.
Ich will nicht diese extreme Hitze, welche die abgeben, zusammen mit entsprechenden Lüftergeräuschen.
Bei vielen CPUs ist es genau das gleiche.
 
Das hoffe ich auch, vielleicht bringt ja AMD hier mehr, die sind weniger knauserig was den VRAM angeht.
Ich mag nicht nochmal 2 Jahre warten falls die neue Gen wieder eine Enttäuschung wird.

Schlimmer (bei NV).
Als GTX 1080 Nutzer habe ich ja schon 8 GB.
Bis jezt war ich immmer gewohnt das es mehr Speicher gab (wenn teilweise auch wenig; z.B. GTX 580 zu GTX 680) aber nach der 1080 kam ja die RTX 2080 und dann die 2080 Super.
War ganz ehrlich gesagt davon ausgegange ndas die RTX 3080 16 GB habe nwürde; ua. weil ja RT mehr Speicher (ver)brauchen soll.
 
Also die Tatsache das Nvidia es nach langer Zeit mal wieder für nötig erachtet der 80er Klasse den großen Chip zu spendieren sagt hoffentlich einiges über Big Navi aus. Scheint so als würden sich ein paar Schweißperlen unter der Lederjacke ansammeln.

Oder aber, was mindestens genauso wahrscheinlich ist: Nvidia jongliert einfach nur mal wieder sein Line-up für die nächste saftige Preiserhöhung.
 
Müssen wir leider auf die nächsten Konsolen warten. Wenn die zeigen was sie können, und klar ist was der PC dafür braucht, spätestens dann wird es satt Vram Nachschlag geben müssen.

Ich werde mir definitiv keine 8 oder 10 GB Karte kaufen. Bin froh das ich meine RTX2070S mit nur 55€ "Verlust" nach 6 Monaten wieder los geworden bin.

MfG
 
Man legt eine VRM und ein PCB für 320W aus und die GPU darf dieses Powerbuget dann nicht ausnutzen? Ziemlich an den Haaren herbeigezogen. Eher eine spekulative Erklärung dafür, warum Nv die Effizienz etwas verloren geht. Also eine 2080ti nutzt das Buget wenn die Temperatur stimmt voll aus, alles andere macht keinen Sinn, weil ich dann keinen überteuren Kühler verbauen brauche und auch an der Bestückung oder Auslegung (Groundplane, Voltgaeplane usw.) des PCB's sparen könnte. Das erhöht ja Margen oder senkt den Preis. Das rechnet sich über abgesetzte Stückzahlen.

Vermutlich ist es eher so das die Angaben zur 3080 vllt. nicht stimmen. Das PCB kann was das Powerbuget einer VRM angeht, ja unterschiedlich bestückt sein.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Nvidia wirklich ermittelt, dann dürfte an den Leaks etwas dran sein.

Aber mehr als doppelt so viel Speicher auf der 90 gegenüber der 80 ti?

Das würde sich dann wenigstens mal lohnen. Alles unter 16GB können die eigentlich behalten, besonders wenn die Leistung wieder nur so wenig steigt, wie bei Turing.

Allerdings dürfte der Preis dann wohl endgültig auf 1500€ klettern.

Und SLI auch erst bei der Königsklasse?

Wirklich Sinn ergibt es ja immer erst mit dem stärksten Modell. Nvidia hat es ja systematisch gestrichen, früher war alles, bis runter zu den unter 100€ Karten, SLI fähig.

Also wäre das Thema Effizienz bei nvidia jetzt vom Tisch mit dieser TDP?

Effizienz ist ja Leistung pro Watt. Wenn die Karten entsprechend leistungsfähig sind, dann wäre auch die Leistungsaufnahme gerechtfertigt.

In jedem Fall wäre es ein Indiz, dass es diesmal wieder eine ordentliche Leistungssteigerung gibt. Wenn man Turing 350W gewährt, dann sind die Karten auch um einiges schneller, was ist dann erst mit Ampere.

Negativ wäre natürlich, dass ich mir ein neues Netzteil kaufen müßte, da das alte mit 460W nichtmehr tauglich ist. Aber das dürfte bei dem Preis dann auch nichtmehr so ins Gewicht fallen.

bei igorslab als quelle wann ich dann schon wieder raus :ugly:

Bei den Super Karten hatte er Recht. Er besitzt wohl noch von früher einige extrem gute Kontakte, zu den Grakaherstellern.
 
Es kennt auf jeden Fall die Bezeichnung für's PCB. Im professionellen Bereich ist der Kühler wegen seinen Dimensionen eher unbrauchbar und damit würde man nicht auf so eine extravagante Konstruktion und PCB Auslegung setzen. Was einem Sorge bereitet ist das lt. Tabelle nur die Titan NV Link mitbringt und keine weitere Karte für ein Multi GPU System geeignet wäre. "133" hat diesen Ausschnitt nicht.

Zumindest müssen die GPU's aus einer Serie "Pin gleich" sein.
---------------
Ja Doraleous, das zeigt mal wieder dein technisches Unverständnis auf, die 2080ti zieht locker 380 Watt wenn man will, aber nur im "A Modus" und das PCB ist ein Serien PCB für professionelle Karten, denn die GT102 ist nichts weiter als ein teildeaktivierter Quadro. Es ist ein und das selbe Basic Design Kit wird nur anders bestückt.

Könnte ja sein Nv trennt die Bereiche deutlicher um an der "Bauteilverfügbarkeit" zu sparen.
 
Zuletzt bearbeitet von einem Moderator:
Vermutung: Der höhere Verbrauch gegenüber Turing könnte dem verbesserten Raytracing geschuldet sein. Wie ja TU schon zeigt, kostet RT richtig Leistung. Was ich persönlich absolut verschmerzlich finde, wenn dann RT endlich gut funzt und auch in der Mittelklasse brillieren kann.
Als EX-R9 390 Besitzer und jetzt Vega 64-Nutzer bin ich an hohe Verbräuche gewohnt und tweake gerne meine Grakas :D
Gruß T.
 
Zurück