Ampere - Geforce RTX 3070 Ti & Geforce RTX 3080 Ti vorgestellt: Specs, Preise, Launch

RX480

Lötkolbengott/-göttin
RX 6900XT /300 Watt TDP / 999$
RTX 3080TI / 350 Watt TDP 1199$

Also irgendwie sehe ich die Konkurenz nicht zur RX 6900 XT..
Kleiner Denkfehler= ne 3080Ti FE ist schon ne Custom, insofern sollte man
Benchmark-Reviews auch mit 6900er Customs@350W machen.

Bin mal gespannt, welche 6900 Custom in den Gamereviews so eingesetzt wird.
Ne TOXIC wäre nice.
(beim Parcour wirds sicherlich bei der 300W-Ref bleiben, also net 1:1 vgl.bar)
 

CD LABS: Radon Project

Volt-Modder(in)
Vier Jahre! Um die Jahrtausendwende konnte man Grafikkarten dieses Alters nur noch in eine Vitrine stellen, heutzutage läuft noch alles prima -> effektive Kosten pro Leben steigen gar nicht. ;)

MfG
Raff
Damals (für die anderen: GeForce256 → 8800 GTX, NV10 → G80) sind die Leistungsaufnahmen und Chipflächen aber auch jedes Mal mit durch die Decke gegangen. Die bereinigten Effizienzfortschritte, fielen im Vergleich zu Kepler & Maxwell, gar nicht so gingantisch aus.

Ich würde mich übrigens sehr freuen, wenn eine Redaktion (oder gerne auch mehrere Redaktionen zusammen!) sich mal die Mühe machen würde, diese historischen Grakas mit heutigen Möglichkeiten allesamt abzuklopfen...
...das wäre ein großer Schritt auf dem Weg der Verwissenschaftlichung der Hardwarepresse.
Allgemein würde ich mich freuen, wenn sich mehr Redaktionen ein Beispiel an RTINGS nehmen würden.
Ich zitiere mich mal selbst aus einem bisher unveröffentlichten Dokument:

"Die 'Full Fat'-Konfektion ist professionellen Beschleunigern vorbehalten, könnte nach Release einer Radeon RX 6900 XTX jedoch zum Bau einer Geforce RTX 3090 Ti herhalten."

Die wahre "Titan" ist auf Basis von Ampere noch gar nicht erschienen. Erst mit 84 SMs und 1 TByte/s Speicherdurchsatz (21 GT/s) ist das meiner Meinung nach erfüllt. :D

MfG
Raff
Gehe ich voll und ganz mit. Obwohl ich mir nicht sicher bin, ob ich die Karte überhaupt gerne sehen möchte. Ein früherer Wechsel zu einem Shrink mit der aktuellsten HBM-Ausbaustufe wäre mir lieber.
 

seahawk

Lötkolbengott/-göttin
Stimmt - die Produktionskosten einer großen GPU haben sich die letzten 10 Jahre sicherlich mindestens verdoppelt. So ein Ding kostet heutzutage keine 100 sondern 200 oder gar 250 Dollar.

Verstehst du worauf ich hinaus will...? ;)


Die Gewinnspanne von NV ist seit 2009 garantiert nicht kleiner geworden, soviel ist sicher.
Schwer zu sagen, wenn man das gesteigerte Volumen berücksichtigt.
 

User-22949

Freizeitschrauber(in)
Hüstel:

Anders gesagt: Ich habe das genauso präsentiert, wie du es mir gerade präsentierst...

Wieso habe ich das gemacht? Na weil ich davon ausging, dass du auf keinen Fall den Abschnitt des Postings gemeint haben könntest. Denn der ist eines: Sicher!
Nvidias Zahlen sind bekannt.
Die genaue Gewinnspanne zeig mir mal.
Es sind nur Gesamtumsatzzahlen bekannt. Außerdem geht es um die Aussage, dass es als gesichert gilt. Das ist es nicht da der Gesamtumsatz weitere Faktoren beinhaltet. Preise Bauteile, Versand, Gehälter, Entwicklung, Fertigung bei Samsung ... Darüber gibt es keine Zahlen, also kann man auch keine Aussage treffen. Fakt!
Und falls es um den Gewinn geht. Auch wenn der Steigt für den Bereich GPU ist nichts über die Menge der verkauften Einheiten bekannt. Also auch nicht aussagekräftig. Und der Gewinn ist lediglich gesamt Verlustbereinigt. Nicht genau auf eine GPU sondern um den Gesamtbereich GPU der wieder alles beinhaltet. Tja leider verloren.
Dein verblendetes Profilbild sagt bereits alles. Hüstel ... und bei AMD ist das im übrigen nicht anders.
Die Wahrscheinlichkeit das der Gewinn pro Karte steigt ist wahrscheinlich, da dies ein Ziel des Unternehmens (und auch der allen Unternehmen generell) ist. Aber es ist eben nicht gesichert :) Und das war die Aussage.
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Bin mal gespannt, welche 6900 Custom in den Gamereviews so eingesetzt wird.
Ne TOXIC wäre nice.
(beim Parcour wirds sicherlich bei der 300W-Ref bleiben, also net 1:1 vgl.bar)
Grafikkarten-Referenztests stets mit Karten von AMD und Nvidia, yep. Alles andere ist "Custom". Ich wünsche mir aber sehr, dass AMD die XTHs nicht bloß den Partnern überlässt, sondern im Herbst noch einen raushaut.

MfG
Raff
 

seahawk

Lötkolbengott/-göttin
Möchtest du gerade in den Raum stellen, das zukünftig kein RT mehr genutzt wird?
RT wird nicht wieder verschinden und der Vorprung von Nvidia, wird auch nicht so schnell aufgeholt.

Die 3080 ist wirklich schon EOL, Welche Karte soll dann die Preisregion bedienen... Gibt dann ja zwischen 600 und 1200USD nichts. Glaube eigentlich nicht, das es so bleibt.
Die 3080 ist EOL, jetzt kommen die 3080LHR.
 

derneuemann

Volt-Modder(in)
Wenn es AMD gelingt, eine Multi-DIE-GPU mit einem Raytracing-Chiplet zu bauen, dann wäre der Vorsprung direkt weg.
Bis wann, warum, welcher Chip wird multi ;)? Da sind ja wohl zu viele Unklarheiten...

Aber ja, wenn AMD sweiter enwickelt und Nvidia in der Zeit nichts weiter entwickelt, wird es AMD schnell schaffen. Das ist aber selten der Fall.

Ich bin aber auch gespannt darauf, wann und wie AMD multi Chip bringt und wie es am Ende performt.
... was für Spieler absolut das Gleiche ist.

MfG
Raff
Was dann aber für den Spieler wieder nur 3080 ist und somit nicht EOL (vereinfacht betrachtet)

Was mich wieder zu meiner Aussage bringt, das ich keinen zwingenden Grund für eine 6800XT sehe, weil es ja auch die 3080 gibt.
 

4thVariety

BIOS-Overclocker(in)
Möchtest du gerade in den Raum stellen, das zukünftig kein RT mehr genutzt wird?
RT wird nicht wieder verschinden und der Vorprung von Nvidia, wird auch nicht so schnell aufgeholt.
Da in den nächsten Jahren mit 150 Millionen Konsolen auf Basis von AMD, Sony und Microsoft Technologien zu rechnen ist und Nvidia relativ zaghaft ist damit anzugeben wieviel Millionen RTX Karten denn nun bei Gamern sind die $60 pro Spiel auf den Tisch legen, sehe ich zumindest einen Trend in Richtung DirectX Implementierungen von Raytracing über Nvidia RTX.

Das könnte zu einer Situation führen, dass wenn RTX direkt unterstützt wird Nvidia vorne liegt, aber nicht jedes Multiplattform Spiel RTX unterstützen wird, weil die Publisher sich auf die Konsolen konzentrieren. Besonders wenn die PC Preise instabil, nicht einsteigerfreundlich sind und zu zehr auf das höchste Preisniveau zielen droht dem PC wieder ein schneller Verfall der zuletzt gewonnenen Popularität.
 

I3uschi

Software-Overclocker(in)
3080ti --> 999$
Nvidia 10 min vor der Präsentation: Ach scheiß drauf --> Bamm 1199$

Grüße

Genau das dachte ich mir auch, als ich nur die News gelesen hatte.

Aha, also nochmal schön 200$ extra pro Karte in die Tasche stecken.
Wer sind wir denn, dass wir zugucken wie die Händler sich einen Porsche nach dem anderen bestellen!?

Der Abstand von der 3080 zur 3090 ist ja schon nicht wirklich viel.
Bei 999$ UVP hätte die 3080Ti gepasst, aber so ist dann entweder die 3080 oder die 3090 die bessere Wahl.

Naja, vorausgesetzt wir würden in normalen Zeiten leben...

Ein einziges Trauerspiel und ich fühle wirklich mit allen die so gerne aufrüsten würden (müssen).

Auch wenn der Preis einfach Müll ist, so werden natürlich trotzdem viele versuchen die (eigentlich ja sehr gute) 3080 Ti zu bekommen. Möge die F5 Taste mit euch sein... :hail:
 

AyC

Software-Overclocker(in)
Du kaufst keine Leistung sondern die Leistungsklasse "x080ti". Eine S-Klasse wird auch immer teurer sein als eine E-Klasse auch wenn die E-Klasse technisch mal näher an der S-Klasse dran ist, als in der Gen vorher. Das Marketing...

Ich kaufe das beste für mein Geld und wenn auf meiner A-Klasse nun S-Klasse draufgeklebt wird, dann werde ich für die A-Klasse nicht das doppelte ausgeben! Es gibt in der Leistungsklasse einfach bessere UND günstigere Alternativen. Übrigens spielen die 3080 und 3080ti in der selbsten Leistungsklasse. Ebenso die 3090 und Grafikkarten von AMD.

Hätte die 3080 30% mehr Leistung/Frames und 16GB RAM, ja dann wäre es eine andere Leistungsklasse und der Preis immer noch nicht gerechtfertigt!
 

RX480

Lötkolbengott/-göttin
Grafikkarten-Referenztests stets mit Karten von AMD und Nvidia, yep. Alles andere ist "Custom". Ich wünsche mir aber sehr, dass AMD die XTHs nicht bloß den Partnern überlässt, sondern im Herbst noch einen raushaut.

MfG
Raff
Wie war das nochmal mit der 3080FE und der Trinity?
(die Angabe 320W ist übrigens vollkommen daneben)

Die FE ist bereits ne Custom! (mit mehr W+höherem PL fürs OCen)

Normalerweise könnte man die 6900Ref mit ca. PL+ 10 betreiben für Gleichstand.
 

Anhänge

  • 3080FE.png
    3080FE.png
    13,1 KB · Aufrufe: 11
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Die haben beide 320 Watt TGP. Wenn ein Partner ein MSRP-Modell veröffentlicht, das der FE unterliegt, ist die FE trotzdem die Baseline (und besagtes MSRP-Modell bekommt entsprechend Abwertung).

MfG
Raff
 

User-22949

Freizeitschrauber(in)
Die 3000 Serie gehört doch eh schon zum alten Eisen :D
Besser auf die 4000 Serie warten ;)
Warten ist nicht unbedingt eine Lösung. Auch dann kann man vielleicht wieder warten bis die Preise nach dem Release fallen.
Bis Karten verfügbar sind. Wer weiß ob sich der Halbleitermarkt in Sachen Verfügbarkeit überhaupt bis dahin gebessert hat.
Wer wartet, wartet vielleicht für immer. Und schlimmer geht immer. Und irgendwann ärgert man sich, nicht schon vor Monaten zugeschlagen zu haben.
 

Lanicya

Komplett-PC-Käufer(in)
Das sich die Preise so entwickeln war schon abzusehen. Das letzte halbe Jahr konnte man wunderbar bei allen Händlern sehen, wie oft die Grafikkartenabteilung leergekauft und wieder gefüllt wurde, und was für Preise gezahlt worden. Man konnte so schön ausloten was der Kunde bereit ist zu zahlen. Das jetzt mit den neuen Modellen der Hersteller noch was mit haben möchte ist da doch sicher.
Anders ist für mich der Preis der 3080ti nicht zu rechtfertigen.



Gruß
 

CD LABS: Radon Project

Volt-Modder(in)
Die genaue Gewinnspanne zeig mir mal.
Es sind nur Gesamtumsatzzahlen bekannt. Außerdem geht es um die Aussage, dass es als gesichert gilt. Das ist es nicht da der Gesamtumsatz weitere Faktoren beinhaltet. Preise Bauteile, Versand, Gehälter, Entwicklung, Fertigung bei Samsung ... Darüber gibt es keine Zahlen, also kann man auch keine Aussage treffen. Fakt!
Und falls es um den Gewinn geht. Auch wenn der Steigt für den Bereich GPU ist nichts über die Menge der verkauften Einheiten bekannt. Also auch nicht aussagekräftig. Und der Gewinn ist lediglich gesamt Verlustbereinigt. Nicht genau auf eine GPU sondern um den Gesamtbereich GPU der wieder alles beinhaltet. Tja leider verloren.
Das stimmt schon alles, die Einschränkungen liegen vor; dennoch kann eine sichere Abschätzung ohne weiteres getroffen werden. Und auch eine sichere Abschätzung liefert: Sicherheit.
Die Gewinnspanne von NV ist seit 2009 garantiert nicht kleiner geworden, soviel ist sicher.
Es geht doch wirklich nur um diese Aussage. Dafür braucht es nur Abschätzungen, sonst nichts. Und Alk hat sich noch nicht einmal festgelegt, ob es um Consumer-GPUs oder vielleicht auch um das Gesamtgeschäft von Nvidia gehen kann. Anders gesagt, die Aussage ist enorm allgemein gehalten. Dass eine solche Aussage bei einer Firma im Aufwärtstrend nicht gilt, ist entsprechend nahezu ausgeschlossen und im Fall von Nvidia eben völlig ausgeschlossen.

Ohnehin ging es mir anfangs ja um etwas vollkommen anderes, wenn du dich noch erinnerst: Ich dachte, du hättest dich auf einen völlig anderen Teilaspekt des Postings bezogen, indem sicher vollkommen glasklar unangemessen gewesen wäre, aber nur sicherlich stand.

Dein verblendetes Profilbild sagt bereits alles. Hüstel ...
Da es sich um OffTopic handelt hätte ich es lieber per PN gefragt; aber PNs hast du ja nicht aktiviert: Was missfällt dir denn an meinem Profilbild?
 
Oben Unten