Geforce RTX 3080 Ti: GPU-Z-Validierung bestätigt technische Eckdaten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 Ti: GPU-Z-Validierung bestätigt technische Eckdaten

Die GPU-Z-Validierung für die Geforce RTX 3080 Ti bestätigt technische Eckdaten. Die Karte ist damit recht nah an der großen Schwester dran und könnte diese auch schlagen, je nach Anwendung und Custom-OC. Der größte Unterschied ist die Speicherausstattung.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080 Ti: GPU-Z-Validierung bestätigt technische Eckdaten
 
Bin mal gespannt wie Nvidia den Abstand zu 3090 wahren will. Evtl. bei AMD abschauen und ein Bioslock beim Takt?
 
Bin mal gespannt wie Nvidia den Abstand zu 3090 wahren will. Evtl. bei AMD abschauen und ein Bioslock beim Takt?
Sehe das Problem nicht. Etwas weniger Shader und halber VRAM. Das bisschen Takt durch 30W Spielraum macht den Braten nicht fett. Vielleicht geben sie auch ein PowerLimit von 320W vor, damit die Balken besser passen. ^^ Die Karte wird sehr knapp unterhalb der RTX3090 performen und teilweise gleichziehen. Aber ist doch okay. Dafür hat die RTX3090 halt viel mehr VRAM und mit OC und höherem PowerLimit auch mehr Leistung.

Naja was willste halt machen. Zwischen die RTX3080 und RTX3090 passte ja eh schon kaum was. Jetzt wird es noch gedrungener.
 
Zeit für ein Blutopfer an die Dunklen Götter des Kosmos, so eine 3080 TI FE wäre schon was feines.
Wo war noch gleich mein Hamster? :-)

PS: verstehe die Diskussion um den Abstand zur 3090 nicht, die hat immer noch 24GB RAM.
Ist also immer noch reichlich Abstand da.
 
Sehe das Problem nicht. Etwas weniger Shader und halber VRAM. Das bisschen Takt durch 30W Spielraum macht den Braten nicht fett. Vielleicht geben sie auch ein PowerLimit von 320W vor, damit die Balken besser passen. ^^ Die Karte wird sehr knapp unterhalb der RTX3090 performen und teilweise gleichziehen.
Du meinst sicher 30W mehr als die 3080 nonTi !?

Ggü. ner 3090@350W gäbe Es "nur" den Vorteil, das mit weniger Vram mehr Watt für die GPU bleiben.
Gibt bestimmt einige Games, wo net alle Shader der 3090 ausgelastet werden und daher ne Ti vorbeiziehen könnte.

Interessant wird, ob GB mal wieder ausversehen ein 390W-Bios leaked.
(Das wäre dann Ende Fahnenstange für 2x8pin)
 
Bei AMD gibts ja auch die 6900XTH, also insofern nehmen sich an der Kasse Beide net viel.
(nur das AMD die selektierten Chips net als Ti vermarktet)

Die 3090 ist preislich und nach Ausstattung mehr ein Titannachfolger.
Jensen sagte ja beim Launch die 3080 wäre der Gamerchip.
Insofern müssten die Reviews eigentlich 6900(xth) vs 3080(Ti) lauten.(über TDP verglichen soundso)

Da die normale 3080 aber in Rastergames net an die 6900 rankommt, ist für Jensens Weltbild halt
noch ne Ti erforderlich.
 
Zuletzt bearbeitet:
Nicht dass ich jetzt pingelig sein will... ;-) Aber wurde nicht schon das eine oder andere mal erwähnt, dass
die Founders Edition keine Referenz-Karte ist, sondern ebenfalls ein Custom-Modell?
Nur mal so als Anmerkung.
 
Zeit für ein Blutopfer an die Dunklen Götter des Kosmos, so eine 3080 TI FE wäre schon was feines.
Wo war noch gleich mein Hamster? :-)

PS: verstehe die Diskussion um den Abstand zur 3090 nicht, die hat immer noch 24GB RAM.
Ist also immer noch reichlich Abstand da.
Eine FE der 3080ti ist nicht geplant, gibt nur Referenzdesign oder Custom.

Sehe das Problem nicht. Etwas weniger Shader und halber VRAM. Das bisschen Takt durch 30W Spielraum macht den Braten nicht fett. Vielleicht geben sie auch ein PowerLimit von 320W vor, damit die Balken besser passen. ^^ Die Karte wird sehr knapp unterhalb der RTX3090 performen und teilweise gleichziehen. Aber ist doch okay. Dafür hat die RTX3090 halt viel mehr VRAM und mit OC und höherem PowerLimit auch mehr Leistung.

Naja was willste halt machen. Zwischen die RTX3080 und RTX3090 passte ja eh schon kaum was. Jetzt wird es noch gedrungener.
Sobald es erlaubt wäre einen3080ti mit mehr als 330W oder ohne Clocklock in einem Customdesign zu bringen, wäre die 3090 geschlagen. Dann wäre die 3090 über Nacht obsolet. Das höhere Powerlimit wird zum großen Teil auch durch den RAM gefressen, da bleiben bei der 3090FE gerade mal 50W für den Chip als OC Reserve.
 
Bei AMD gibts ja auch die 6900XTH, also insofern nehmen sich an der Kasse Beide net viel.
(nur das AMD die selektierten Chips net als Ti vermarktet)

Die 3090 ist preislich und nach Ausstattung mehr ein Titannachfolger.
Jensen sagte ja beim Launch die 3080 wäre der Gamerchip.
Insofern müssten die Reviews eigentlich 6900(xth) vs 3080(Ti) lauten.(über TDP verglichen soundso)

Da die normale 3080 aber in Rastergames net an die 6900 rankommt, ist für Jensens Weltbild halt
noch ne Ti erforderlich.
Navi 21 XTH ist leider auf keiner Referenzkarte zu finden, insofern fällt er (wie jedes OC-Herstellerdesign) aus der Betrachtung normaler Tests. Verschenktes Potenzial.

[x] Immer noch für eine 6900 XTX LCE

Beste Grüße aus dem Crunch,
Raff
 
Eine FE der 3080ti ist nicht geplant, gibt nur Referenzdesign oder Custom.
Zum Glück!

Der Kühler der 3080FE ist einfach ungeeignet für soviel W bei längerem Gamen in nem normal
belüfteten Gehäuse.

Navi 21 XTH ist leider auf keiner Referenzkarte zu finden, insofern fällt er (wie jedes OC-Herstellerdesign) aus der Betrachtung normaler Tests. Verschenktes Potenzial.

[x] Immer noch für eine 6900 XTX LCE
Dir schwebt sicher sowas Ähnliches wie bei der RX64 LC vor.
(damals Advantage= der Treiber ließ bei niedriger Temp. glatt mal eff.1600MHz@975...982mV zu, wo der normale Chip doch mehr V reinstecken musste)

zu 6900-Customs:
Ist die TOXIC von Edelhamster net ne XTH ?

btw.
Mit LM und CustomLoop sind die XTH schon interessant für Bastler.(siehe L!ME vom Luxx)
Man kommt in einigen Benchmarks dann schon in die Nähe einer 3090oced.
(war ne Goldene "normale XT" von L!ME)


btw.
Die 3070Ti finde ich genauso spannend. (besser kühlbar)
Da freue ich mich auch auf die Userbenchmarks für UV/OCed-Settings.
(wäre nice, wenn mal Einer mit nur 265W benchen könnte = meine 6800 hat zufälligerweise 228W+Rest = 265W
wenn ich mehr PL freigebe. Die XFX+Strixx haben ab Werk auch ähnliche 227W asic ohne PL++.)
 

Anhänge

  • Toxic@2870.jpg
    Toxic@2870.jpg
    669,7 KB · Aufrufe: 4
  • L!ME_sup4k.jpg
    L!ME_sup4k.jpg
    121,2 KB · Aufrufe: 5
  • Sup4k@Launch_6900XT.jpg
    Sup4k@Launch_6900XT.jpg
    285,7 KB · Aufrufe: 4
  • 6800@228Wasic.JPG
    6800@228Wasic.JPG
    104,2 KB · Aufrufe: 4
Zuletzt bearbeitet:
Du meinst sicher 30W mehr als die 3080 nonTi !?
Ich meinte, die RTX3090 hat mit 24GB ein Powerlimit von 350W.

Die RTX3080Ti, gesetzt dem Falle, sie wäre ebenfalls standardmäßig auf 350W limitiert, hätte dann aufgrund der fehlenden 12x 1GB VRAM-Chips, 30W mehr Spielraum für mehr Takt bis 350W.

Also das nur in der Theorie, falls Nvidia der RTX3080Ti ein Powerlimit von 350W setzt. Sie könnten es natürlich auch, wenn sie Bock haben, auf 320W setzen und die Karte so ein Stückchen einbremsen für die "Ab-Werk-Benchmarks", die ja viele Reviewer verwenden. So käme die RTX3080Ti der RTX3090 in ebendiesen Benchmarks nicht zu nah und würde eher knapp oberhalb der RTX3080 (auch mit 320W) performen.

In der Realität wird man die Limits natürlich per MSI Afterburner so weit nach oben anheben, wie es das VBIOS ohne an der Hardware herumzupfuschen, zulässt. Dies kann man natürlich nicht nur bei der RTX3080Ti machen, sondern auch bei der RTX3090 und bei der RTX3080.

Es geht halt lediglich um den Vergleich bei festgenagelten 350W. Da könnte eine RTX3080Ti gegebenenfalls etwas im Vorteil sein, da eine RTX3090 früher bremsen muss, weil der VRAM etwa 2,5W pro 1GB verbraucht. Diese Werte nannte jedenfalls @FormatC bzw IgorsLab mal und die haben sich bisher, soweit ich weiß, gehalten.

Sobald es erlaubt wäre einen3080ti mit mehr als 330W oder ohne Clocklock in einem Customdesign zu bringen, wäre die 3090 geschlagen. Dann wäre die 3090 über Nacht obsolet. Das höhere Powerlimit wird zum großen Teil auch durch den RAM gefressen, da bleiben bei der 3090FE gerade mal 50W für den Chip als OC Reserve.
Also sind 330W jetzt fix? Habe ich noch nicht mitbekommen. Ok.

Aber warum sollte die RTX3090 obsolet sein? Du kannst das Powerlimit der RTX3090 genau so anheben. Und nach wie vor hat sie den doppelten Speicher und "nicht nur" 12GB. Sehe das mega entspannt. Meine RTX3090 kann ich theoretisch auf 400W hochziehen. Andere RTX3090-Modelle können auf weit mehr hochgehen. :ugly:

Sehe da gar keinen Streß für die RTX3090.
Sie ist und bleibt die dickere Karte.

Und in der Realität undervoltet bzw optimiert man die Karten sowieso.
Soll doch jeder seine RTX3080Ti prügeln wie er will. Gönne es jedem. ^^
Die RTX3090 hat trotzdem 24GB, mehr Shader und ebenfalls OC-Potential.

Ganz abgesehen davon... die RTX3080Ti wird ohnehin keiner für <2000€ kaufen können.
Von daher... who cares? :lol:

Dann kaufen sich die Leute halt für mehr Kohle ne angespeckte Karte auf Steroiden - komme ich mit klar. :ugly:

Dann wäre die 3090 über Nacht obsolet
Warum ist die dann auf einmal obsolet? Weil die RTX3080Ti 2GB mehr als die RTX3080 hat? Ist das dann die magische Grenze, wo VRAM auf einmal wieder "reicht" und mehr VRAM schwachsinnig wird? :ugly:

Oder gehts um die Performance?
Da war die RTX3090 ggf schon vorher obsolet bei 10% Leistungsunterschied zur viel günstigeren RTX3080.
Verstehe die Aussage nicht.

Wenn du so argumentierst sind alle Karten über der RTX3080 obsolet, weil so richtig absetzen können die sich in der Realität alle nicht. Erst recht nicht im Preis-Leistungs-Vergleich.
 
Zuletzt bearbeitet:
Es geht halt lediglich um den Vergleich bei festgenagelten 350W. Da könnte eine RTX3080Ti gegebenenfalls etwas im Vorteil sein, da eine RTX3090 früher bremsen muss, weil der VRAM etwa 2,5W pro 1GB verbraucht. Diese Werte nannte jedenfalls @FormatC bzw IgorsLab mal und die haben sich bisher, soweit ich weiß, gehalten.
Danke!
Echt interessant:
"Pro Modul GDDR6X sind es 2,5 Watt, GDDR5 waren es ca. 1 bis 1.5 Watt."
Das erklärt ganz gut, warum die 3070Ti so in die Vollen geht bei der TDP.
(kommt ja noch der Controller dazu)
 
Was ist das hier? https://www.pcgameshardware.de/Nvid...he-Eckdaten-1372877/galerie/3511158/?fullsize

Edit: Der 3090FE bleibt damit der (deutlich) bessere Kühler, neben der Speichermenge, als Vorteil.
Ist komplett an mir vorbei gegangen.:kaffee: Mein letzter Stand war, das Nvidia den Chip nur verkaufen wollte und keine eigenen Karten damit bringt. Aber der Kühler sieht wirklich mager aus, eher wie 2 Slot design. Der kann auf keine hohe TDP ausgelegt sein.
Ich meinte, die RTX3090 hat mit 24GB ein Powerlimit von 350W.

Die RTX3080Ti, gesetzt dem Falle, sie wäre ebenfalls standardmäßig auf 350W limitiert, hätte dann aufgrund der fehlenden 12x 1GB VRAM-Chips, 30W mehr Spielraum für mehr Takt bis 350W.

Also das nur in der Theorie, falls Nvidia der RTX3080Ti ein Powerlimit von 350W setzt. Sie könnten es natürlich auch, wenn sie Bock haben, auf 320W setzen und die Karte so ein Stückchen einbremsen für die "Ab-Werk-Benchmarks", die ja viele Reviewer verwenden. So käme die RTX3080Ti der RTX3090 in ebendiesen Benchmarks nicht zu nah und würde eher knapp oberhalb der RTX3080 (auch mit 320W) performen.

In der Realität wird man die Limits natürlich per MSI Afterburner so weit nach oben anheben, wie es das VBIOS ohne an der Hardware herumzupfuschen, zulässt. Dies kann man natürlich nicht nur bei der RTX3080Ti machen, sondern auch bei der RTX3090 und bei der RTX3080.

Es geht halt lediglich um den Vergleich bei festgenagelten 350W. Da könnte eine RTX3080Ti gegebenenfalls etwas im Vorteil sein, da eine RTX3090 früher bremsen muss, weil der VRAM etwa 2,5W pro 1GB verbraucht. Diese Werte nannte jedenfalls @FormatC bzw IgorsLab mal und die haben sich bisher, soweit ich weiß, gehalten.


Also sind 330W jetzt fix? Habe ich noch nicht mitbekommen. Ok.

Aber warum sollte die RTX3090 obsolet sein? Du kannst das Powerlimit der RTX3090 genau so anheben. Und nach wie vor hat sie den doppelten Speicher und "nicht nur" 12GB. Sehe das mega entspannt. Meine RTX3090 kann ich theoretisch auf 400W hochziehen. Andere RTX3090-Modelle können auf weit mehr hochgehen. :ugly:

Sehe da gar keinen Streß für die RTX3090.
Sie ist und bleibt die dickere Karte.

Und in der Realität undervoltet bzw optimiert man die Karten sowieso.
Soll doch jeder seine RTX3080Ti prügeln wie er will. Gönne es jedem. ^^
Die RTX3090 hat trotzdem 24GB, mehr Shader und ebenfalls OC-Potential.

Ganz abgesehen davon... die RTX3080Ti wird ohnehin keiner für <2000€ kaufen können.
Von daher... who cares? :lol:

Dann kaufen sich die Leute halt für mehr Kohle ne angespeckte Karte auf Steroiden - komme ich mit klar. :ugly:


Warum ist die dann auf einmal obsolet? Weil die RTX3080Ti 2GB mehr als die RTX3080 hat? Ist das dann die magische Grenze, wo VRAM auf einmal wieder "reicht" und mehr VRAM schwachsinnig wird? :ugly:

Oder gehts um die Performance?
Da war die RTX3090 ggf schon vorher obsolet bei 10% Leistungsunterschied zur viel günstigeren RTX3080.
Verstehe die Aussage nicht.

Wenn du so argumentierst sind alle Karten über der RTX3080 obsolet, weil so richtig absetzen können die sich in der Realität alle nicht. Erst recht nicht im Preis-Leistungs-Vergleich.
Du hast mich falsch verstanden.

Ich weiß mitnichten welchen Spezifikationen der 3080 ti zur TDP von Nvidia kommen. Aber ja. ich meine das es ein Novum wäre, das ein Chip out of the Box schneller wäre als der nächst größere der selben Generation. Das meinte ich mit obsolet.

Die 12GB mehr RAM ziehen etwa 30W (laut Igor). Daher darf ja die 3080 ti nicht mehr als 320-330W ziehen dürfen (eigentlich sogar weniger), sonst dürfte der Chip gleich schnell oder schneller sein als die 3090.

OC erstmal außen vor gelassen...

War es nicht z.B. bei der 1070 ti so, das offiziell OC verboten war da sonst die 1080 geschlagen wurde? Und heute denke ich da an AMD, wo per Bios der Takt nicht über Wert X angehoben werden konnte. Wenn Nvidia z.B. das Bios so vorschreibt, wäre das Fix.

Und was die Performance angeht, klar die 10% mehr sind keine 700€ Aufpreis wert (auf UVP bezogen). Wobei 10GB schon arg wenig sind und die 12GB auch eher aus der Not geboren sind....für 20GB reichen schlicht die verfügbaren VRAM Chips nicht.

Abgesehen davon verstehe ich sowieso nicht warum man zwischen 3080 und 3090 noch eine 3080ti quetschen muss.:stupid: Kann mir nur vorstellen, das Nvidia zwar GA102 Chips zur Verfügung hat aber nicht nicht genug VRAM Chips um Sie zu bestücken.

Anderseits wenn es nach P/L geht dürfte die 6800XT (abgesehen von RT) mit Ihren 16GB das beste Angebot sein.

Wenn es den alle Karten zur UVP zu kaufen gäbe.....
 
= reine Kostenfrage

Könnte mir vorstellen, das die momentan erforderliche beidseitige Bestückung ala 3090 das PCB+Kühlung auch net preiswerter macht.
(die 20GB gabs bestimmt mal als Engineeringsample, aber ökonomisch halt Wahnsinn)

Insofern gibts halt nur die preiswerte einseitige Bestückung, solange Es keine 2GB-Module gibt.
 
Zurück