Nvidia Ampere: Benchmarks zur RTX 3080 Ti (?) aufgetaucht

Ich wäre schon zufrieden, wenn die 3080 Ti/3090 eine 40 - 45%ige Steigerung zum Vorgängermodel hätte und 16 GB VRAM.
1500 Euro wäre übrigens so ziemlich meine Schmerzgrenze, dafür muss dann schon was rüberkommen.
7~800€ ist meine Grenze. Ich denke der Preis liegt bei der 3070 dann. Da diese 3070 12GB haben wird, wird es meine nächste Karte.
über 1K werde ich niemals für ne Karte ausgeben! Das ist in meine Augen keine Karte wert.
 
Das sieht ja nicht rosig aus mit Ampere für Spieler. Da wurde vor ein paar Wochen Ampere vorgestellt im HPC-Markt und auch dort bietet Ampere nur 20% Leistungssteigerung gegenüber der vorigen GEN. Man hat auch die letzten Wochen gelesen das Nvidia mit Ampere stärker am Raytracing und DLSS arbeiten wird also wird da nicht viel mehr rauskommen wie 40% Leistungssteigerung wie bei Turing gegenüber Pascal wo es auch nur knapp 40% Mehr waren.

Da hat AMD jetzt ihre Chance wenn sie eine Big-Navi bringen die 20% schneller als eine 2080TI wäre zu einer UVP von 800$ dann würde sich auch beim Preis endlich wieder etwas tun der gerade seit Turing abartig ist. Da hat Nvidia dann auch nicht mehr das Alleinstellungsmerkmal Raytracing da mit RDNA2 RT für Konsole und den PC kommt.
Ich gebe auch keine 1000€ für eine GPU aus denn die 500€ für die 1080 fand ich schon sehr viel.
 
... damit entwertest du jede Vorgängervariante.

nvidia hat noch nie auf werterhalt einer vorgängergeneration wert gelegt, siehe Titan X -> 6monate später Titan Xp zum selben preis -> 6 monate später Titan Xp Starwars Edition um -200eur als die Titan Xp. und warum sollten sie auch? grafikkarten/elektronik ist ja keine "wertanlage"
 
M.M.n. wird die eigentliche Performance nicht mehr als 30-40% Mehrleistung betragen, ich denke die in der Gerüchteküche immer wieder genannten 50%+ werden wohl eher auf die RT Performance zutreffen.

1. um Kauf-/Upgradeanreize zu schaffen, AMD auf Abstand zu halten, respektive die Marktstzellung zu verteidigen, da die nun auch in dieses Segment einsteigen -> RT
2. es muss auch noch Leistungssteigerungen after Ampere 1.0 geben, z.B. wie bei der Super. Also nicht das ganze Pulver gleich verschießen.
3. wird nach einigen neuen Treiberversionen die Turing eh weiter zurückfallen, wie Pascal ;) -> Achtung Verschwörungstheorie
 
Zuletzt bearbeitet von einem Moderator:
Zitat von Pu244

Nun kann sich also jeder selbst zusammenbauen, was er will.

Ich für meinen Teil sage eine RTX 3090 mit 75% Leistungssteigerung, gegenüber der RTX 2080Ti und 22GB VRAM vorher, die in 7nm von TSMC hergestellt und am 19. November 2020 offiziell vorgestellt wird. Ach ja: Preis 1499€.

75% mehr Leistung kann ich mir nur für rtx vorstellen (also rtx on/off fps gleich) ansonsten würden mich mehr als 30% mehr leistung schon überraschen. 22 GB vram nur wenn es keine Titan mehr gibt, aber dann nicht unter 2k €[/QUOTE]

Erstmal müssen wir das weiter abwarten, was wirklich bei rum kommt. Aber eine Denkweise könnte auch sein. Wenn demnächst alle Spiele, dank der RT Konsolen, RT bieten, dann interessiert in erster Linie auch die Leistung, die dabei erzielt wird.

Von daher könnte sogar, wenn eine 3080TI nur 30% vor einer 2080TI liegen würde, wenn es die Leistung ohne RT betrifft, in Spielen mit RT deutlich mehr vor einer 2080TI liegt. Gut und gerne können das dann auch 50% sein (nur als Beispiel).

Ich denke die Spiele mit RT werden dann demnächst sehr schnell zunehmen. Dann werden maximale Details halt RT beinhalten.

Anhand der spekulierten Daten von Big Navi und einer 3080TI, sollten beide im Idealfall das gleiche leisten .

M.M.n. wird die eigentliche Performance nicht mehr als 30-40% Mehrleistung betragen, ich denke die in der Gerüchteküche immer wieder genannten 50%+ werden wohl eher auf die RT Performance zutreffen.

1. um Kauf-/Upgradeanreize zu schaffen, AMD auf Abstand zu halten, respektive die Marktstzellung zu verteidigen, da die nun auch in dieses Segment einsteigen -> RT
2. es muss auch noch Leistungssteigerungen after Ampere geben, z.B. wie bei der Super. Also nicht das ganze Pulver gleich verschießen.
3. wird nach einigen neuen Treiberversionen die Turing eh weiter zurückfallen, wie Pascal ;) -> Achtung Verschwörungstheorie

Zu 3.
Es gibt nicht einen einzigen Beleg das ältere GPUs bei Nvidia durch irgendeinen Treiber langsamer werden. Es kann immer vorkommen, das mal Fehler behoben werden, wobei auch mal ein paar GPUs langsamer werden. Im Normalfall werden die älteren GPUs auch durch neue Treiber, mit sich selbst verglichen schneller.
 
Zu 3.
Es gibt nicht einen einzigen Beleg das ältere GPUs bei Nvidia durch irgendeinen Treiber langsamer werden. Es kann immer vorkommen, das mal Fehler behoben werden, wobei auch mal ein paar GPUs langsamer werden. Im Normalfall werden die älteren GPUs auch durch neue Treiber, mit sich selbst verglichen schneller.

Den ;) (Zwinker) und das in Fett geschriebene hast du schon gelesen?
 
So der Grund warum diesmal nach den letzten leaks ich weniger begeistert bin wie noch vor 6 Monaten liegt an dem Gerücht was sich mittlerweile bestätigt
das ampere auf 10nm von Samsung basiert.
ich dachte vorher an 8nm lpp
nun das hat folgen.

Zuerst ist der takt auf max 1,8ghz limitiert und somit das maximum was die chips bringen können im sweetspot
Ab dann wird sau ineffizient, und weil man davon ausgeht das 250w kein limit darstellen und die 350w normal sind.
Erwarte ich Frequenzen zwischen 1,9-2.1ghz oc ab Werk. und bei chipklassen wie
ga102 350w bis zu 5376 rtx3090-80 700-1400€ 10nm 1,9ghz
ga104 225w bis zu 3072 rtx3070-50 250-500€ 10nm ~2,1ghz
ga106 175w bis zu 1920 rt 3040 3010 50-250€ 10nm 2,0ghz

Der leicht erhöhte L2 (siehe a100) wird die ipc um max 20% steigern können aber nur bei dx12 somit in klassischen dx11 Anwendungen max 10% sein.
Der Grund ist simple CPU limit.
Weil sich am takt so gut wie nix ändert sind die max Steigerungen bei den Modellen bei 25% zu suchen
Die DXR Leistung wird quasi verdoppelt
man wird den Fokus auf dlss3 setzen und stärker auf dxr puschen.
Den genau da wird nvidia versuchen die steigerungen zu vermarkten
ein auf FHD, 720p bild mit mehr als 75% mehr Leistung zu vermarkten ist Augenwischerei
Weil eben das bild nicht nativ berechnet wird.
Zwar wird man eher 4k bewerben wollen.
das ist aber keine übliche Monitorauflösung der Kompromiss 1440p wird mit Bildinhalt von 1080p. befeuert.
Somit wird nvidia versuchen alles mit dlss in den test zu forcieren.
Also bedeutet das Augen auf und suche nativ test in 1080p ohne taa was dlss ermöglichen soll.
Das nimmt wieder Ausmaße an wie 2003 als nvidia in der Bildqualität gemogelt hatte. Damals af und aa Qualitätsenkung.

Fazit ist werde ich mitn rtx3060 für etwa 300€ ~rtx2070s Leistung bekommen. Den mehr wird es nicht sein.
vermutlich sind es 2304 shader +10% ipc etwa
100/2176/1,875*2,1*2304*1,1=123%= 23% mehr Leistung als der vorgänger rtx2060s
rtx2060s zu rtx2070s ~15%
bezogen auf meine gtx1060 sind es fast 90% Wechselgrund

allerdings bei einen verbrauch von 225w
ich hoffe das man es schafft auf 175w zu verringern.
Das aber hängt massiv vom 10nm lpp process ab und wie weit nvidia den takt ins limit bringt
ich schätze allein bei ipc und etwa denselben takt würde man bei 1,9ghz gut 1/3 strom sparen.
ähnlich wie amd mit nur 100mhz auch so 1/4 bei ihren rx5000 Modellen strom einspart und bei 200mhz sogar halbiert.
rx5700xt normal 225w
Stromspar 175w
taktsenkung auf 1,6ghz 117w
nebenbei das ist im treiber implementiert
Blöd nur das dann die Leistung eher zwischen einer gtx 1660 und gtx1660ti (+-25% vs rx580) liegt anstatt einer rtx2060 rtx2060s(+50% vs rx580)
navi ist etwa auf dem niveau von pascal was ipc angeht hat aber Defizite beim takt/Effizienz

Das limit wird aufgehoben in rdna2 und tsmc 7nm advanced
Somit dürfte amd next gen bei 2,1-2,2ghz landen mit 3072 shadern was auch dxr beherrscht.
Und quasi die neue rx6700xt ist und gegen nvidia rtx3070 antritt ~450€-550€
leider wird amd darunter kein dxr unterstützen.
n24 mit nur 2304shader als rx6600xt ein rx5700xt ersatz nur stark stromsparender.~300€
Es wird sich am vram entscheiden ob nvidia rtx mit dxr und ausreichend vram oder amd mit mehr vram und ohne dxr. bei etwa 300€ bereich
Den Kampf erwarte ich aber erst Anfang 2021

Zuerst kommen big navi 80cu (n21) und rdna2 rx6800/6700 (n22) mit 64 und 48cu raus
80cu 5120shader 1299€
64cu 4096sh 2,2ghz 800€ vs rtx3080 4352sh 1,9ghz 800€
48cu 3072 2,1ghz 450€ vs rtx3070 3072 2ghz 425€
36cu 2304 2,1ghz 300€ vs rtx3060 2304 2,1ghz 300€

Spannend wird wie man bei nur 8gb/6gb vram dxr unterstützen will bei nvidia in den nächsten Jahren.
Mein verdacht man forciert dlss3 und somit geringere Auflösungen als fhd. bsp 900p bis 720p da kann dxr glänzen.
Im übrigen dlss 3 funktioniert bei allen wo taa einsetzbar ist, und braucht keine Implementierung mehr.
Das wird ein fanboi schlacht werden bei den nächsten benchmarks. was ist nativ was nicht.
 
Das ist bei mir raus gekommen:

TimeSpy 2080Ti.png

wenn nachher 30% mehr bei gleichem Verbrauch kommt zzgl. mehr Speicher warum nicht :-), nach 2 Jahren zwar etwas dürftig aber AMD ist ja auch noch da.
 
...

Weil sich am takt so gut wie nix ändert sind die max Steigerungen bei den Modellen bei 25% zu suchen
Die DXR Leistung wird quasi verdoppelt
man wird den Fokus auf dlss3 setzen und stärker auf dxr puschen.
Den genau da wird nvidia versuchen die steigerungen zu vermarkten
ein auf FHD, 720p bild mit mehr als 75% mehr Leistung zu vermarkten ist Augenwischerei

...
.

Mit doppelter RT Leistung ausgehend von Turing, wird DLSS nicht unbedingt nötig sein und kann nativ gerechnet werden zumindest bis Auflösungen von 3440x1440 WQHD um bei rund 60+ FPS zu bleiben... In 2540x1440 nativ wirds dann wohl für 80-100 FPS reichen. Kommt auf die Engine an, aber Control machts vor, mit einer DLSS Auflösung von 21xx x 14xx skaliert auf 3440x1440 hab ich mit meiner 2080TI etwa 70 FPS. Bei doppelter RT Leistung würde ich das Nativ zocken mit etwa genauso viel oder etwas mehr FPS... Rein von der Vermarktung ist es dann völlig richtig, von 75% oder 100% Mehrleistung zu sprechen, nativ lief Control ja auch schon mit 35-50 FPS mit RT on...
 
Zuletzt bearbeitet von einem Moderator:
Damals, im schönen Jahr 2017, als im April noch alles gut war, kam meine hübsche kleine 1080Ti als nette Customausführung zu mir nach hause für 850 €.

...ich bin einfach gespannt, wieviel % Leistungssteigerung mir eine ebenfalls nette Custumausführung aus der 30XX-Serie (oder eben von AMD) man mir für 850 € denn jetzt so bieten wird :ugly:

Ok, um fair zu sein: mindestens +70 % für 900,00 € und mehr RAM müssen schon drin sein, sonst werde ich entweder abgezockt oder man versucht die Kosten der wenig erfolgreichen Produktentwicklung bei mir abzuladen.
 
@- KaneTM
es sind max 60%
von gp102 auf tu102 sind 26% (at stock bei 1,6ghz welche gtx1080ti macht das nur standard sind 1,9ghz)
+ max 30% etwa 56%

Milchmädche aus
 
nVIdia haben den Vogel abgeschossen und ihr R&D Budget[/URL] bereits im relativ kurzen Zeitraum von 2017 - 2020 nahezu verdoppelt von $1,463 Mrd. auf $2,829 Mrd. Das dürfte vor allem ihren Bemühungen im Bereich Automotive und Datacenter zuzuschreiben sein.
Und das Geld dafür, holt man sich von den Gamern!

Das haben übrigens Großaktionäre schon viel früher erkannt und sind abgesprungen, selbst RTX hilft Nv nicht die Wachtumsrate im Bereich dGPU zu erhöhen (dort verblieb man auf gleichem Stand wie vor dem Krytoboom und das Nv die Zahlen damit fälschlich gepusht haben, dürfte nunmehr klar sein...), im letzten Quartal ging's sogar 10% im Bereich Gamer bergab (was immerhin 50% des Unternehmensanteil ausmacht). Also konzentriert man sich auf Bereiche in denen noch Wachstum möglich ist und investiert dort die Einnahmen aus dem Bereich Gamer-GPU. Datacenter ist *chweineteuer und genau das spiegelt sich auch in den Preisen wieder. Das spiegelt ja auch die vermeintl. Streichung eines GA103 wieder und das man eine 3080 nunmehr ins Enthusiast schiebt (ich halte das immer noch für eine Preisbegründung, sowie: ihr bekommt ja einen teildeaktiverte Titan, das "Luxusgut" was alle wollen...:)). Man spart also, wo's geht. Da ist die Verwendung eines teildeaktvierten Chips immer noch günstiger als einen eigenen Stack laufen zu lassen und eine GPU mehr fertigen zu müssen.

Das funktionierte mit AMDs Vega's usw. ziemlich gut, weil die weniger konkurrenzfähig waren. Navi hat mit dem Thema wieder aufgeräumt und die Verteilung im Markt auf alten Stand gebracht (30/70), dann fehlen auch Einnahmen die man quersubvensionieren könnte.

Ich würde nicht von einer 100% Steigerung für RTX ausgehen, wenn dann weil man unter DLSS die Auflösung weiter senken kann. Das hat mit dem Pushen der Hardware was die reine Rohpower angeht, weniger zu tun. DLSS ist faktisch die Basis für RTX (vor allem im Mainstream) ohne dem wird es kaum lauffähig sein. Das man AMD dann bspw. 4k@120fps rennen lässt und unter RTX dann auf die Hälfte zurückfällt, glaube ich nicht. Ich vermute eher, RTX wird ohne DLSS nicht mehr weiterentwickelt, und es gibt bald keinen Button mehr DLSS zu deaktivieren. Wenn AMD auf diesen Bereich nicht aufspringt, wird es den Markt weiter spalten.

Ich persönlich glaube das sie das nicht tun werden, weil es dafür einen SC braucht der zusätzlich immense Summen frisst.
 
Zuletzt bearbeitet von einem Moderator:
Zurück