Geforce RTX 3080 Ti: Technische Daten machen die Runde

Mmmhhh. Gibt es denn schon die 2GB Module vom GDDR6X?
Wenn nicht, dann frage ich mich, wie die sonst es am selben SI der 3080 anbinden wollen....?
Die 2GB Module waren doch erst für 2021 angekündigt? Oder steh ich jetzt einfach nur auf dem Schlauch?
Das geht bei der 90 ja auch. Beideseitige Bestückung eben.

Auf den Preis hat es aber sicherlich keinen guten Einfluss.

Edit: Da war jemand schneller :daumen:
 
Wenn ich mir die aktuelle Verfügbarkeit und die Preise ansehe und dazu die Methode betrachte, wie Nvidia den Kunden das Geld aus der Tasche zieht, warte ich mit Vorliebe auf die Karten der Konkurrenz. Für meine WQHD-Ansprüche reicht mir eine 6800 (XT) und ich bin zudem gespannt, was AMD noch alles mit dem Treiber anstellt.
 
Wenn ich mir die aktuelle Verfügbarkeit und die Preise ansehe und dazu die Methode betrachte, wie Nvidia den Kunden das Geld aus der Tasche zieht, warte ich mit Vorliebe auf die Karten der Konkurrenz. Für meine WQHD-Ansprüche reicht mir eine 6800 (XT) und ich bin zudem gespannt, was AMD noch alles mit dem Treiber anstellt.

Wie schon selber gesagt bin ich diesmal auch geneigt zu AMD zugreifen allerdings sei gesagt das auch Nvidia sich Preislich gebessert hat(sicher auch dank AMD) aber aktuell kan von über dem Tisch ziehen nicht die rede sein...
eine 6900 xt wird um die 1000-1100 euro kosten eine Nvidia 390 liegt bei Nvidia bei 1499 euro..dafür kriegt man aber mehr ram und mehr Raytracing cores ...also da ist der geldunterschied auch nicht riesig....
 
Mmmhhh. Gibt es denn schon die 2GB Module vom GDDR6X?
Wenn nicht, dann frage ich mich, wie die sonst es am selben SI der 3080 anbinden wollen....?
Die 2GB Module waren doch erst für 2021 angekündigt? Oder steh ich jetzt einfach nur auf dem Schlauch?

Vielleicht kann und mag mich kemand erleuchten, weil so würde wieder von sehr homeopathischen Mengen ausgehen, wenn es nur wenige 2GB Module gibt...
Das wird wie bei der 3090 laufen, also ein 2. Speicherchip auf der Rückseite. Das führt allerdings auch dazu, dass sie ihre bisherigen Kühllösungen nicht nutzen können, sondern eine aufwendigere Kühlung benötigen, die die Speicherchips auf der Rückseite abdecken. Dann wird es also entweder direkt der Kühler der 3090 werden müssen oder neue Lösungen her. Sollten sie einfach nur die bereits existierenden Kühler nehmen, ohne aufwendige Anpassungen, werden die Speicherchips reihenweise sterben, da sie verdammt heiß werden...
 
20GB wären wirklich angebracht, 16 tun es im Moment auch noch.
Habe heute einen Trailer zu Godfall dem Game gesehen. Dort wird für 4k eine Graka mit 12GB VRAM verlangt. Ouch
 
Für meine WQHD-Ansprüche reicht mir eine 6800 (XT) und ich bin zudem gespannt, was AMD noch alles mit dem Treiber anstellt.

Da fällt mir was zu ein. :D

Ich habe es selbst erlebt und nach fünf Monaten Treiber-Chaos mit der 5700 XT ehrlich gesagt erstmal keine Lust mehr auf eine AMD-GPU.
Big Navi wird technisch sicher spannend (und auch ausreichend schnell). Das bringt nur alles nichts, wenn der Treiber ständig für BSODs, Abstürze und Hänger sorgt.
Dann habe ich lieber ne hässliche Treiberoberfläche bei Nvidia, aber dafür stabiles Gameplay in jeder Lage.

Das klingt bei dir aber wirklich mal so, mal so. Wie das Fähnchen im Wind.
Jetzt is gerade AMD wieder in Mode, weil Nvidia Geld vom Kunden verlangt. ;)

wie Nvidia den Kunden das Geld aus der Tasche zieht

Pöse ! ;)

Und wenn ich die voraussichtlichen Preise der 3080 Ti als zu hoch einschätze, wähle ich einfach die Karte, die zu meinem Budget passt, wie z.B. 3080 10GB, die voraussichtlich für WQHD auch "reicht".
 
Schön für dich.

Oben ging's aber um die AMD Treiber.
Lenkt ruhig vom Thema ab. :D

edit: Einmal halt AMD voll spannend und einmal keine Lust mehr auf AMD-GPUs, wegen der Treiber.

edit2: Aber macht ihr mal. Ihr dreht euch das schon richtig, wie ihr's haben müsst.

Haut rein ! :daumen:
 
Das wird er gewiss gleich selbst schreiben, aber darauf wollte ich hinaus: Wenn die Alternative nur 10 GiB hat, wird der gute Dave trotz der vergangenen Navi-Probleme AMD wieder eine Chance geben. Das Leben ist ein Kompromiss. :-)

MfG
Raff
 
Meine 2015er-Titan hatte sogar schon 12 GiB (von der 16G-Vega-FE aus 2017 nicht zu sprechen). Was sagt uns das jetzt über die Kapazitäten der RTX 3080 und RTX 3070? ;) Wobei man dazusagen muss, dass 12 GiB im Jahr 2015 das sind, was 24 GiB im Jahr 2020 sind - das ist selbst mit viel Aufwand "spielerisch" unfüllbar. 16 GiByte sind laut meiner Einschätzung genau richtig, um auch 2021 alles aufreißen zu können.

MfG
Raff
 
Speicheranbindung ist das Stichwort.

bei 10GB und 20GB bleibt es bei 320 bit. 12 GB würden noch gehen, aber dann wären es 384 bit. Da ist dann wieder die Frage, ob es nicht doch der 3090 zu nahe kommen würde, wenn neben dem Chip auch noch der Speicher gleichschnell ist.
20GB bietet zudem für das Marketing die Möglichkeit damit zu werben, dass man mehr als AMD bietet.

Zwischen 12GB und 20GB ist nicht möglich bzw wäre ohne etwas vergleichbares wie dem Inifnity Cache zu langsam.
16 GB (8 je Seite) würde 256 bit bedeuten. Glaube kaum, dass der Chip für 512 bit ausgelegt ist.
Also ich hab neulich auch gelesen, dass die 3080 Ti "lediglich" 12 GB bekommen soll,
da diese den Chip der 3090 bekommt und deren 384 bit.
Und die 3070 Ti 10 GB GDDR6 ...

MfG Föhn.
 

Anhänge

  • 12 GB.jpg
    12 GB.jpg
    618,5 KB · Aufrufe: 15
  • 10 GB.jpg
    10 GB.jpg
    449,2 KB · Aufrufe: 13
Wer zu spät (oder gar nicht) liefert, den bestraft der Kunde eben mit dem Kauf beim Konkurrenten. WENN der liefern kann:-D Nvidia, Nvidia! Oder wie einige es hier schön öfter formulierten: NIEV(W)IDIA... :ugly:

Gruß
 
Also ich hab neulich auch gelesen, dass die 3080 Ti "lediglich" 12 GB bekommen soll,
da diese den Chip der 3090 bekommt und deren 384 bit.
Und die 3070 Ti 10 GB GDDR6 ...

MfG Föhn.
Du hast auch diese News hier gelesen? Hier geht es um eine TI mit 20GB laut den Gerüchten.
Und wenn man einen Chip mit 12 32bit Schnittstellen hat, dann kann man da auch 2 Schnittstellen stilllegen und nur 10 Schnittstellen nutzen.

Die 3080 nutzt ja auch den GA102, genauso wie die 3090, nur dass da eben mehr als nur 2 SI deaktiviert sind.
 
die kosten dann 1200€ als customs, ne ne Nvidia, da bleib ich bei meiner alten 2080 und warte auf die nächste Generation.
 
Zurück