Nvidia Ampere: Gainward leakt Spezifikationen der RTX 3090 & RTX 3080

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere: Gainward leakt Spezifikationen der RTX 3090 & RTX 3080

Gainward wird in der kommenden Woche Custom-Modelle der RTX 3090 und RTX 3080 vorstellen. Das geht aus geleakten Pressefolien hervor, die außerdem die finalen Spezifikationen der High-End-Modelle bekanntgeben. Mit dabei sind abermals 24 Gigabyte für die RTX 3090 und 10 Gigabyte für die RTX 3080.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere: Gainward leakt Spezifikationen der RTX 3090 & RTX 3080
 
Wie erwartet bringt man ein Lückenhaftes Portfolio auf den Markt mit umbenannten Namen und dann noch weitere Karten mit mehr RAM und Shadern nachzuliefern, je nachdem wie gut Big Navi wird.

Wäre eher höchst fraglich vorher auch nur irwas von nVidia zu diesen überteuerten Preisen zu kaufen. Eine 3080TI/3090Ti/3070TI aka Super Karten als auch eine Titan liegen alle noch im Bereich des möglichen und werden in Teilen sicherlich auch noch kommen. Noch dreister als bei der aktuellen Gen.
 
Ja, da gehe Ich auch stark von aus. Für mich warst das erstmal mit Nvidia mir ist letztens meine RTX 2080Ti abgeraucht, wobei ist eigentlich die falsche Wortwahl da der GPU-Chip nur 40grad hatte weil wegen unter Wasser. Jetzt schmück eine schöne RX Navi mein System.
 
Mal die Präferenz einer Marke außen vor gelassen - bei den zeitlichen Abständen der Releases ergibt es einfach keinen Sinn Ampere zu kaufen solange man nicht weiß was RDNA2 bietet.
Das gilt doch besonders für die 3080 - ich kann ja diejenigen verstehen die sich definitiv eine 3090 kaufen wollen, wozu warten RDNA2 wird das nicht schlagen. Aber für alles drunter? Schießt man sich doch womöglich selbst in den Fuß nur weil man wenige Wochen zu ungeduldig war. :what:

Neue GPU ist für den Jahreswechsel im Budget geplant - aber ich beweg mich keinen Milimeter bevor ich nicht weiß was AMD liefert und zu welchen Preisen.
 
und einer Total Graphics Power (TGP) von 350 Watt daher. Übrigens: die tatsächliche TDP liegt für gewöhnlich grob geschätzt 20 Prozent unter dem TGP-Wert.
TGP lese ich zum ersten Mal und aus dem Schreck heraus wegen der 350W habe ich auch noch über anstelle von unter gelesen :ugly: Scheinen wirklich monströse Ausmaße zu haben, die neuen Karten.


Mal die Präferenz einer Marke außen vor gelassen - bei den zeitlichen Abständen der Releases ergibt es einfach keinen Sinn Ampere zu kaufen solange man nicht weiß was RDNA2 bietet.
Das gilt doch besonders für die 3080 - ich kann ja diejenigen verstehen die sich definitiv eine 3090 kaufen wollen, wozu warten RDNA2 wird das nicht schlagen. Aber für alles drunter? Schießt man sich doch womöglich selbst in den Fuß nur weil man wenige Wochen zu ungeduldig war. :what:

Neue GPU ist für den Jahreswechsel im Budget geplant - aber ich beweg mich keinen Milimeter bevor ich nicht weiß was AMD liefert und zu welchen Preisen.

Natürlich macht es Sinn "gleich" eine nv zu kaufen und nicht auf amd zu warten. Wozu sollte man als Besitzer eines gsync Monitors auf amd warten? Wäre umgekehrt ja genau so.
 
Wäre eher höchst fraglich vorher auch nur irwas von nVidia zu diesen überteuerten Preisen zu kaufen.

Bei den letzten 3 Generationen war das jedenfalls kein schlechter Kauf. Wenn die RTX 3090 wirklich 1400€ kostet, dann muß AMD bei Big Navi sehr deutlich unter die 1000€ gehen, damit man sich da in den Hintern beißen kann. Bei der RTX 2080Ti zu RTX 2080 war ja ein Abstand von 1350€ zu 800€ und erstere hat sich ja auch ganz gut verkauft.

Wer das Geld hat und ausgeben will, der soll zuschlagen, nicht zurückblicken und sich darüber freuen, dass er für die nächsten 2 Jahre die ultimative Karte hat.
 
...einer Total Graphics Power (TGP) von 350 Watt daher. Übrigens: die tatsächliche TDP liegt für gewöhnlich grob geschätzt 20 Prozent unter dem TGP-Wert.

Bringe ich da jetzt irgendetwas durch einander?

TDP = Abwärme der Karte ?
TGP = Total Grafic Power - Abwärme/Aufnahme der GPU
TBP = Total Board Power = Aufnahme/Abgabe der gesamten Karte

Wenn ich das richtig sehen, müsste das dann wie folgt aussehen:
TBP > TDP > TGP ? Das würde für mich bedeuten, dass die reale Aufnahme/Wärmeabgabe unter Last bei >350Watt liegen müsste?

Bitte mich korrigieren, wenn ich etwas aus dem Artikel falsch verstehe....
 
Wie erwartet bringt man ein Lückenhaftes Portfolio auf den Markt mit umbenannten Namen und dann noch weitere Karten mit mehr RAM und Shadern nachzuliefern, je nachdem wie gut Big Navi wird.

Wäre eher höchst fraglich vorher auch nur irwas von nVidia zu diesen überteuerten Preisen zu kaufen. Eine 3080TI/3090Ti/3070TI aka Super Karten als auch eine Titan liegen alle noch im Bereich des möglichen und werden in Teilen sicherlich auch noch kommen. Noch dreister als bei der aktuellen Gen.
Diesmal wirds für Nvidia eng sag ich mal! Die IPC Steigerung dürfte >20% sein und wenn Big Navi mit 2Ghz+ taktet wird es verdammt schwer!
 
TDP = Abwärme der Karte ?

Die TDP war ursprünglich die Bemessungsgrundlage für den Kühler. Da AMD, ATI, Nvidia und Intel den wirklichen Verbrauch nicht herausgerückt haben, hat man einfach den genommen. Es gab Karten und CPUs, die weniger verbraucht haben, als es ihre TDP vermuten ließ (z.B. GTX 260-192 150W statt 180W TDP und Phenom II X4 940 BE 94,5W statt 125W TDP). Da das zu einem Marketingnachteil wurde, hat man die TDP real ausgereizt. Irgendwann sind die Hersteller darauf gekommen, dass man die TDP nach oben hin beliebig überschreiten konnte, da sich die Karten und CPUs selbst gedrosselt haben (Fury X 383W statt 275W TDP oder i7 8700K 180W statt 95W bzw. i9 10900K bis zu 350W statt 125W TDP), das hätte nur mit Komplett PC Herstellern Ärger gegeben. Der einzige große Hersteller, bei dem die TDP auch recht genau dem realen Verbrauch entspricht, ist Nvidia.
 
Wie erwartet bringt man ein Lückenhaftes Portfolio auf den Markt mit umbenannten Namen und dann noch weitere Karten mit mehr RAM und Shadern nachzuliefern, je nachdem wie gut Big Navi wird.

Wäre eher höchst fraglich vorher auch nur irwas von nVidia zu diesen überteuerten Preisen zu kaufen. Eine 3080TI/3090Ti/3070TI aka Super Karten als auch eine Titan liegen alle noch im Bereich des möglichen und werden in Teilen sicherlich auch noch kommen. Noch dreister als bei der aktuellen Gen.

Jo deutlich an den fast 1000 fehlenden Shadern zu sehen die die 3080 von der 3090 trennen und selbst die ist ja nichtmal der Vollausbau :schief:.
 
Denke zum Start wird es nur die RTX3080 und RTX3090 geben. RTX3070 im Oktober und die RTX3060 im November.

Bin jedenfalls gespannt was Huang in ein paar Tagen vorstellt. Erwartungen sind durchaus hoch, die Preise vermutlich auch.
 
Die TDP war ursprünglich die Bemessungsgrundlage für den Kühler. Da AMD, ATI, Nvidia und Intel den wirklichen Verbrauch nicht herausgerückt haben, hat man einfach den genommen. Es gab Karten und CPUs, die weniger verbraucht haben, als es ihre TDP vermuten ließ (z.B. GTX 260-192 150W statt 180W TDP und Phenom II X4 940 BE 94,5W statt 125W TDP). Da das zu einem Marketingnachteil wurde, hat man die TDP real ausgereizt. Irgendwann sind die Hersteller darauf gekommen, dass man die TDP nach oben hin beliebig überschreiten konnte, da sich die Karten und CPUs selbst gedrosselt haben (Fury X 383W statt 275W TDP oder i7 8700K 180W statt 95W bzw. i9 10900K bis zu 350W statt 125W TDP), das hätte nur mit Komplett PC Herstellern Ärger gegeben. Der einzige große Hersteller, bei dem die TDP auch recht genau dem realen Verbrauch entspricht, ist Nvidia.

Also kann man von 350Watt unter Last ausgehen, also TDP = TBP in diesem Fall?
Zumindest wenn nvidia nicht irgendetwas rausgerechnet hat?
 
Natürlich macht es Sinn "gleich" eine nv zu kaufen und nicht auf amd zu warten. Wozu sollte man als Besitzer eines gsync Monitors auf amd warten? Wäre umgekehrt ja genau so.

Trifft auf mich - was den Monitor angeht - zu. Aber ich muss halt auch schauen ein sinnvolles Upgrade meiner 1080ti zu finden. Zweiter Monitor steht ebenfalls auf dem Wunschzettel, von daher bin ich hier sehr sehr offen.
Aber ich gebe Dir recht, Gsnyc ist leider die Bindung an Nvidia, zumindest was die älteren Monitore angeht.
 
"nur" 4352 Shader bei der RTX3080 :( Schade da man von früheren Leaks noch über 5000 gelesen hat. Bei "nur" 4352 Shader und ähnlichen Taktraten wie die große 90er Version verstehe ich die 320 Watt nicht wirklich. Hoffentlich liegt der reale Verbrauch deutlich darunter.
 
"nur" 4352 Shader bei der RTX3080 :( Schade da man von früheren Leaks noch über 5000 gelesen hat. Bei "nur" 4352 Shader und ähnlichen Taktraten wie die große 90er Version verstehe ich die 320 Watt nicht wirklich. Hoffentlich liegt der reale Verbrauch deutlich darunter.

Es gab sicherlich keinen auch nur annähernd glaubhaften Leak der über 5000 Shader für die 80er vorhergesagt hat, in einem solchen Falle wäre die 90 nur durch ihren VRAM im Vorteil und der prozentuale Shaderunterschied wird bei Ampere sowieso schon gering sein.
 
Zurück