Nvidia "Ampere": Angebliche Spezifikationen der RTX 3080 Ti (GA102) aufgetaucht

Ich wiederhole mich mal :D

Klingt so, als würde man alles dafür tun, die Speichermengen nicht erhöhen zu müssen ^^

Auf High Level Ebene könnte es diese Runde sehr ähnlich aussehen bei AMD und nV.

GA100 und Arcturus jeweils 128 x 64 = 8.192 ALUs / GA100 6144-bit HBM, Arcturus glaube 4096-bit. Hier sind die Daten ziemlich safe.

Das gleiche bei GA102 und N21, wenn man 82 und 80 SM bzw CU annimmt (wobei mir der Sprung bei nV klein vorkommt, aber nach Turing ist alles möglich). Auch wieder 64 ALUs pro SM/CU. Taktverhalten könnte ähnlich sein.
Bleibt die Frage der Speicherbandbreite (brutto/netto) und Umsetzung Raytracing. "IPC" ist schwierig, hier wirds schwammig. Sehe nV erstmal vorn, aber wenn RDNA2 die Versprechungen annähernd einhält, wird es auch hier spannend.

GA103 (scheint sich irgendwie zu verdichten) stünde gegen N22 mit jeweils 60 SM bzw CU.


GA100 Titan wäre aber episch :hail: Aber bestimmt auch episch teuer :ugly:
 
Bei 35% Mehrleistung können sie ihre überteuerten Karten behalten, erst recht, wenn sie den VRAM nicht steigern. Dann schlage ich mich wohl mit meiner Kiste bis 2022 durch (10 Jähriges Jubiläum).

Far Cry 6 dürfte hoffentlich noch einigermasen gut laufen, Elex 2 wohl ebenfalls.

Bist du mit 11/12Gb schon in ein Bottleneck gerannt? Ich spiele aktuell in 4K und hatte mit 11GB nie Probleme.

Ich weiß nicht wie du das handhabst, aber ich kaufe mir einen neuen PC, damit er auch die Spiele der Zukunft gut schafft. Die 6GB VRAM waren, als ich mir die Karte gekauft habe, mehr als genug, 4GB hätten auch völlig gereicht. Heute leisten die 2GB ExtraRAM gute Dienste. Eine lächerliche Verdoppelung ist relativ wenig, das sie man bei den Texturen oft erst bei genauerem hinsehen, eine Verdreifachung oder gar vier mal mehr RAM, das ist dagegen recht ansehnlich.

Im übrigengen sorgt das vorhandensein von Karten, mit viel VRAM, auch dafür, dass entsprechende Texturpakete angeboten werden.
 
Bist du mit 11/12Gb schon in ein Bottleneck gerannt? Ich spiele aktuell in 4K und hatte mit 11GB nie Probleme.

Ja, mit 12GB der TitanXP vor Jahren schon - und das bei spielbaren fps - also ohne Diashow-Supersampling oder sowas.
Rise of the TombRaider war son Kandidat wo man das schaffen konnte, QuantumBreak iirc auch. Klar, echte "Bottlenecks" waren das nicht weil der vRAM zwar voll war aber es noch nicht (nachlade-)ruckelte aber so viel Luft war da vor Jahren schon nicht mehr.

Eigentlich wären heutzutage Karten mit 16, 24, 32GB im oberen Preissegment Pflicht (vor allem wenn RayTracing gepusht werden soll das Tonnen von vRAM verschlingt) - aber NV hält uns da halt künstlich an der kurzen Leine. Hoffentlich ändert sich das mit Ampere.

Also 16GB wäre für mich die absolute Untergrenze für ne derart teure Karte.
 
Sicher? Wie ich schrieb wäre das eine Karte, die der Kunde bisher nicht kennt, entsprechend platziert und neu beworben werden müsste. Hingegen existiert das XX80Ti Merkmal bereits seit mehreren Generationen :huh:

Die 90er gab es ja auch früher auch schon. Zuletzt waren das Multi-GPU-Karten, aber da Multi-GPU praktisch tot ist und genügend Zeit vergangen ist könnte man eine 3090 oder 3090Ti bringen, das Lineup etwas umbennen und die Preise alle etwas "anpassen" um es in Nvidia-Sprache zu formulieren.
 
Hoffentliche machen die Karten neben einen Leistungssprung keinengroßen Preissprung.. Hoffentlich setzt AMD Nvidia mit Big Navi dann mal schön unter Druck :D
 
Wie soll das funktionieren, dass man hier von 4- Facher RT- Leistung spricht, aber Shadertechnisch irgendwas um die 35% erwartet.
Wenn irgendwas die RT- Leistung bremst, dann sind es doch die anschließend auszuführenden Shader.

Wollen die jetzt noch mehr nicht zu verarbeitende Rays verschießen? Die RT Einheiten langweilen sich doch auf der 2080TI jetzt schon, weil die Shader nicht hinterher kommen.
Klingt für mich alles noch nicht so schlüssig....

War es nicht so, dass üblicherweise nur jeder vierte Pixel mit Raytracing versehen wurde? Wenn ich mich recht erinnere, dann konnte das ganze nur mit dem Trick auch in höheren Auflösungen flüssig dargestellt werden. Wenn man jetzt die vierfache Leistung hätte, dann könnte man darauf verzichten.

Zumindest die zitierten 864 GiB/s entsprechend 12 BGAs bzw. einem 384 Bit-Interface, d. h. es werden maximal 12 GiB werden wenn 18 Gbps-GDDR6 zutreffend sind, was auch einleuchten sollte, denn mehr ist aus Sicht von nVidia schlicht nicht wirtschaftlich und ein echter Marktdruck für mehr Speicher im Consumer-Segment existiert derzeit faktisch nicht.
Wenn du auf mehr hoffst, wirst du auf die RDNA2-Gerüchte setzen müssen, die für das HighEnd-Modell HBM2 in Aussicht stellen und das sollten dann voraussichtlich 16 GiB werden (weniger würden hier den Aufwand nicht rechtertigen können). Hier bleibt dann nur die Frage, ob AMD auch architektonisch aufschließen kann; man wird abwarten müssen ...

Man könnte so aber auch 22/24GB anbinden. Zumindest für eine Supervariante wäre das eine Option.

Allerdings sollte man sich auch vor Augen halten, dass nichts, wirklich garnichts, offiziell bekannt ist. Nichteinmal der Name Ampere ist offiziell bestätigt. Bei Turing (die davor noch als Volta gehandelt wurde) gab es auch eine böse Überraschung. Die VRAM Verdoppelung fiel aus, es wurden nur lächerliche 30% Mehrleistung, dafür gab es Raytracing. Von daher sollte man die Gerüchte mit Vorsicht genießen, sie sind wohl sowieso nicht wahr.
 
Als der Raja damals mit AMD den HighBandwithCacheController in Vega10 heraufbeschwor haben noch alle gelacht.
Neben Produkten wie der Radeon Pro SSG findet er in leicht abgewandelter Form in allen NextGen-Konsolen seinen Platz und selbst Nvidia bringt mit Ampere nun mutmaßlich eine vergleichbare Technologie (NvCache), über die der vRam mit Hilfe des Arbeitsspeichers und/oder Festspeichers erweitert werden kann.
Es ist nicht unrealistisch, dass Nvidia bei teuren 18gbps Chips bei 12GB vRam bleibt, es aber so vermarktet, dass das mit der neuen Speichertechnologie, jetzt eigentlich 16GB entspricht. Die brauchst du demnächst dann denk ich auch für RayTracing in 4K.
Bis zu 15% Leistungseinbußen bei entsprechender Auslagerung, wie von Moore´s Law is Dead im Video verzapft, wären aber deftig im Vergleich zu AMD´s Lösung. Bei denen ist der Performance-Verlust +-0.
Aber logisch, lieber um 15% geringere min-FPS als Nachladeruckler.

edit: war damals so schön mit meiner 8GB Vega64 (hier auf 12GB per HBCC erweitert) ausgerechnet in SquareEnix und Nvidia´s Baby FFXV die Funktion nachzustellen.
edit 2 : um Minute 7 sieht man wie die physisch verbauten 8GB dann überschritten werden

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Man könnte so aber auch 22/24GB anbinden. Zumindest für eine Supervariante wäre das eine Option.
Wenn Nvidia ihrer Linie treu bleibt, dann denke ich, wird es so sein, dass:
3060-8GB
3070/3080-11GB
3080ti-16GB
haben werden.
1 Jahr später, kann durchaus wieder eine "Super" Version kommen, die dann jeweils einen Vollausbau haben wird.
 
Vierstellige Kartenpreise werden nicht unterstützt, so groß mein Interesse auch wäre.
Vielleicht in 5 Jahren eine RTX 5060 für 400€. :D
 
Wie lange hast du bei Navi gelacht? Ich hoffe für uns alle, das RDNA 2 und RTX3000 richtig einschlagen ;)



Ich bleibe bei RTX3070 knapp unter 2080TI, jeweils mit den Hersteller Specs betrieben.



Du hast die Specs von RTX3000 schon?

Laut Nvidia ist der 1635MHz Boost auch nur "Bis zu". Was treibt dich zu der Annahme, das das eine "Bis zu" anders zu bewerten ist, als das andere "Bis zu"?

Gut möglich, das es sich genau so verhält, dann hättest du hinterher real 1900 gegenüber 2400MHz zum Beispiel.

In den Nvidia Specs zur 2080TI steht Boost, bis zu 1635MHz!

Nix bis zu und ein Shrink ist keine Taktplusgarantie

GeForce RTX 2080 TI-Grafikkarte | NVIDIA

Aber ich werde mich nicht deswegen zoffen. Ich glaube nicht an mehr, weil Nvidia einfach Nvidia ist und keinen Grund hat mehr als 30%-40% drauf zulegen, selbst wenn es problemlos möglich wäre... Die werden nicht gleich mit dem ersten Wurf das ganze Pulver verschiessen, die wohlen den darauf folgenden Refresh ja auch noch verkaufen.
Das wäre einfach zu schön.
 
Von einer möglichen 3080 erwarte ich eigentlich schon Minimum 50-75% Mehrleistung als meine 1080Ti.
Eine unrealitische Erwartungshaltung ist das, wenn du wirklich eine 3080 ohne Ti meinst.

Wenn Nvidia ihrer Linie treu bleibt, dann denke ich, wird es so sein, dass:
3060-8GB
3070/3080-11GB
3080ti-16GB
haben werden.
Die Speichermenge ist abhängig vom Design des Speichercontrollers. Eine "krumme" Zahl wie 11GB sind sehr unwahrscheinlich auf einer 3080, erst recht in Kombination mit einer 3070. Wenn wieder 64Bit pro Kanal verhanden wäre, hätten 3070/80 nur 192Bit Bus Breite.

lebt ihr auf dem mond oder hat euch nvidia schon so im griff 35 % sind ein witz. siehe 980ti zur 1080ti das war okay.
Ja, aber auch schon eine ziemliche Anomalie die letzten 10 Jahre.
 
Da warte ich dann wohl doch auf die 4xxx Gen (Hopper"?"). Eine "Ti" kommt sowieso nicht in Frage, da ich nicht bereit bin diese Mondpreise zu bezahlen.
 
Über alle Generationen zu testen ist tricky. oft setzen bestimmte Engine Features eine ältere Generation derart Schach Matt, dass gleich die ganze Framezahl einbricht.
Passmark ist eine Benchmark die noch über sehr viele Generationen gut skaliert und dabei immer auch gut abbildet wo eine GPU liegt. Würde man mit 50 Spielen benchen und einen Durchschnitt bilden, würde man im niedrigen einstelligen Prozentbereich eine Abweichung haben. Für Leute die zwischen Generationen nach zweistelligen Verbesserungen suchen. also gut genug.
RTX und Tensor sind Spezialfälle die, so sehe ich das auch, das Ende dieser Liste einläuten, sofern man nur Zahlen akzeptiert bei denen dieses Feature aktiviert ist.

PassMark Software - Video Card (GPU) Benchmark Charts - Video Card Model List
aus der Liste folgt also:

2060 14773
1060 10212
960 5962
760 4647
660 3985
560 3610


GTX 560 -> GTX 660 = +10%
Mach Euch den Spaß. googelt nach alten Reviews dieser Karte, z.B. Anandtech und achtet darauf wie peinlich darauf geachtet wird die Karte mit AMD und anderen Nvidia Karten der 600er Serie zu vergleichen aber bloß nicht der 560.

GTX 660 -> GTX 760 = +16,6%
Auch hier wurden wenig Vergleiche mit dem Vorgänger angestellt. Man war bemüht darauf hinzuweisen, dass man 30fps in Crysis 3 bei 1440p hatte. Pre-E-Sport, ganz klar.

GTX 860 hat man mal ausgelassen.

GTX 760 -> GTX 960 = +28%
Hat man mit dem "falschen" Spiel gebencht laut Nvidia, waren es schon mal nur +10%, woran sich Tom's Hardware die Finger verbrennen durfte. Ansonsten waren direkte Vergleiche mit der 30% langsameren 760 natürlich erwünscht.

GTX 960 -> GTX 1060 = +71%
Für 250€ hat diese Karte wohl mehr für PC Gaming gemacht als jede andere Karte zuvor. Die 1000er Serie wäre eine Anomalie in Preis/Leistung hätten Kryptominer nicht die Preise explodieren lassen.

GTX 1060 -> RTX 2060 = +44%
40% mehr Leistung für 40% mehr Preis. Aus Kundensicht eine verlorene Generation. Gilt besonders wegen der kaum verfügbaren RT und DLSS Features.

Die 17% locken niemand hinter dem Ofen vor. Es wird wohl auf anteilig mehr Steigerung bei den RT Cores hinauslaufen und entsprechen PR Druck diese RT benchmarks in den Fokus zu rücken, wenn die 3060 dann 70% schneller ist bei RT als die 2060. Wir verschweigen mal den Teil, dass das auf dem eigenen Fehldesign bei der Ungleichgewichtung von Raster und RT Cores bei der 2060 beruht. Es gibt auch ein Crysis Remake, können wir das ja in 1440p benchen und mit der 760 vergleichen.
 
Die news ist veraltet

aktuell
sicher ist
ga102 5376sh 2,2ghz doppelte tensior core je sm 16anstatt 8 =84*16=1344
RT core identisch aber 4 mal schneller
tensor core übernehmen textur kompression decompression, das bringt bis zu 40% Ersparnis an vram 11gb =16gb vram
DLSS 3 soll mit leichteren Anpassungen an alle taa unterstützten spielen funktionieren.
Es ist aber ein angepasster game ready treiber notwendig

Es scheint so das nvidia amd 7nm und somit rdna2 völlig unterschätzt hat.
TSMC in Preisdrücken zu zwingen ging daneben folge nvidia hat nicht genug 7nm euv Kapazitäten bekommen
Daher wird nvidia so früh wie möglich alle sku veröffentlichen zuerst aber ga102 rtx3080ti Und ga103 rtx3080
vermutlich paper launch
dann die beste Meldung man strebt bei späteren ga104 aif 7nm euv an aber vorläufig wird es 8nm samsung die Taktraten hier sind offen

Erstmals seit 10 Jahren wird wieder eine rtx3060 karte eine 104 chip haben
Mit tsmc 7nm euv sind 2,5ghz durchaus realistisch.
Wie hoch samsung 8nm lp Prozess taktet ist offen.
vermutlich um die 2ghz
Die samsung chips sind größer aber die wafer um die hälfte billiger.

Es wird versucht die preise nahezu identisch zu halten was aber schwierig wird da amd rdna2 doch sehr gut sein soll.
nvidia hat nicht damit gerechnet rdna2 die halbe Stromverbrauch zu realisieren und nahezu an die rtx2080ti übertrifft.
Wie es scheint wird amd zuerst im herbst big navi bringe mit 5120shader und etwa 40% über der rtx2080ti sein.
Hier wid es spannend beim preis. ich gehe von 1500€ aus.
Das wird das erste mal seit min 10 Jahren das amd wieder vorne liegt.
gründe sind die zu geringen Kapazitäten bei tsmc bestellt wurden und nvidia einfach rdna2 unterschätzt hat.
lasset den Preiskampf beginnen zwar um nen Jahr verzögert danke human maleware aber immerhin.
Also jetzt würde ich keine turing oder rdna erste gen kaufen. Denn dxr wird auf turing in Zukunft unspielbar werden.
 
Die 1000er Serie wäre eine Anomalie in Preis/Leistung hätten Kryptominer nicht die Preise explodieren lassen.

Das halte ich nach wie vor für ein Gerücht von Nvidia was erfunden wurde um Preissteigerungen rechtfertigen zu können. Weniger als ein 1% der Karten ging an Kryptominer! Der Kryptohype ist schon Monate/Jahre vorbei und die Preise nie wieder gesunken.
 
"Leistungsvorsprung von mindestens 35 Prozent"? Das ist jetzt nicht unbedingt der "Super-Sprung", den man von Nvidia nach so langer Zeit erwarten würde. Dann ist da noch die Frage des Preises. Wir wissen alle, dass Nvidia eine Monopolstellung in dem High-End-Grafikkartensegment hat und daher Preise diktiert, die jenseits von gut und böse sind.
 
Zurück