Nvidia Ampere: Benchmarks zur RTX 3080 Ti (?) aufgetaucht

Die GPU der Xbox Series X läuft mit 1825MHz.
Der Boost soll bei Sony bis 2.2 reichen. Ist die kleinere Ausführung, aber eine APU. Kein seperater Chip, den man extra (allein) kühlen kann. Bei der Konsole wird er also auch aufgeheizt, wenn ich keine GPU intensiven Anwendungen laufen habe. Die Spreizung sieht dort völlig anders aus, als bei einer dGPU (Hotspots usw.).

Das sie bei einem hohem CPU Boost noch auf 1825 kommen, ist schon ordentlich wenn die Rohdaten stimmen. Der Takt ist ja zumindest garantiert.
 
So die zahl Sagt erstmal nix aus den es fehlen shader anzahl und chipausbaustufe

So rein logisch würde nur von shader raw power gerechnet es eine 5376 shader
und somit der vollausbau des ga102-400-a1 akä titan a
5376/4352=1,24/24% +6% =6% bessere ipc vs turing in klassischen Rasterleistung.
Wünschenswert wäre aber eine
RTX 3090 GA102-300-A1 5248 /4352=1,2 +10% =10% bessere ipc vs turing

Unrealistisch ist aber der
RTX 3080 GA102-200-Kx-A1 4352


und somit 1=1 30% ipc Vorsprung zu turing

Das macht die Fertigung nicht mit da es sich hier nicht um 7nm handelt und die Taktraten nicht Gesteigert wurde.
1,93ghz macht so gut wie alle rtx2080ti mit.

Folglich hat nvidia amd klar unterschätzt
Und es könnte erstmals ein Preiskampf im high end kommen
erwartet aber kein dumping preise bei amd

ich gehe von min 1499€ aus bei big navi bei etwa derselben Leistung der neuen titan bzw rtx3090 aus.
amd ist klar 5200 shader vs 5248 eventuell liegt amd P/W und takt vorne mit 2,1ghz während nvidia hier mit 1,93ghz limitiert ist
Folglich reißt man die tbp in die Höhe man spricht von 350w
Amd könnte bei etwa 300w deckeln.
wäre mal eine andere Ausgangslage wie bisher.
So bsp Preiskampf amd 1499€ nvidia kontert mit 1299€ amd senkt auf 1249€
aber alles hängt vom Konsolen preisen und wann wer was vorstellt ab.

aber die zahlen sind ernüchternd nur 1,93ghz ist schwach bei den versprochenen 2,4-2,6ghz der letzten Gerüchten. und zeigt das nvidia möglicherweise auf samsung 8nm Lpp gewechselt ist. max 20% vs 12nm tsmc
mit tsmc 7nm euv würden über 2ghz möglich sein.
Aber da hat amd klar die Bestände weggekauft und nvidia beim poker um die wafer schlicht versagt.
Das beschert uns einen Preiskampf erstmals seit 2011
Die frage die offen ist auf welchen niveau?
wünschenswert 200-300€
möglich 400-500€
wahrscheinlich 1200-1400€

Somit wird sich erst 2021 im 300€ bereich deutlich sich bewegen bis dahin wird massiv der bestand abverkauft. ich tippe auf etwa aug sep geht es los.
Also zu den release Ankündigungen.
Verkaufsstart erwarte ich ende sept Anfang okt.
Kurz darauf kommen die Konsolen raus.
ps5 499€ und 399€ xsx ~549€ und 449€ ohne LW und xss 299€ (quasi xbonex ersatz)
predicted xss Leistung dann rtx2060s Leistung für 250€ äka rtx3050ti rx6500 (afaik rx5700xt refresh

Der ausblick sagt mir warte wie nvidia das vram limit der nächsten Konsolen gen entgegenwirken will
Und wie gut amd DXR Leistung wird. Und wie stark diese in den kommenden games gepuscht werden.
ab 2021
Somit tritt meine gpu kaufentscheidung spätestens dez 20 an
meine gtx1060 ist die erste GPu die 4 Jahre alt geworden ist.
ich hab noch ältere aber nicht mehr Nutzbare gpu da fürn Notfall.

alda hab ich gut strategisch geld gespart:D
 
Also wenn die neuen Karten wieder nur 30% schneller sind als die alten, dann schlafe ich ein.
Die gemunkelten bis zu 70% sind dann wohl auf ein Spezialszenario bezogen?
Vermutlich 70% mehr Tensor Kerne für Raytracing?
Wobei Raytracing die nächsten paar Jahre noch überflüssig sein wird, daher schenke ich mir die Karten - vor allem bei den vermutlich nochmals höheren Preisen.
Letzteres wäre nämlich zumindest bei den Oberklassekarten zu erwarten, falls das mit den Kühlern und kurzen Platinen (=HBM Speicher!) keine Eintagsfliegen, sondern Serienprodukte sein sollten.
Meine 1080 wird die nächsten 2-3 Jahre mitunter wohl noch packen können, es sei denn, da komtm so ein richtig fieser Preis- und(!) Leistungskracher angeflogen, wo man schon dumm sein müsste, da nicht zuzuschlagen. Jedenfalls werde ich nicht für gefühlt die Hälfte Mehrleistung gleich wieder 500 Euro auf den Tisch legen. Das passt einfach nicht.

ich habe noch in Erinnerung das vor einigen Jahren die Beste Karte um die € 600,- gekostet hat, was ne Menge Geld ist. aber was die in den letzten 3 Jahren haben wollen ist doch nicht mehr normal. € 1500,- :daumen2: :huh: :hmm:
aber es scheint wohl noch zu viele Leute zu geben die bereit sind soviel Geld auszugeben für 30 % mehr Performance.
 
Das macht die Fertigung nicht mit da es sich hier nicht um 7nm handelt und die Taktraten nicht Gesteigert wurde.
1,93ghz macht so gut wie alle rtx2080ti mit.
EUV hätte vor allem Vorteile bei der Packdichte, nicht Taktsteigerung. +18% density bei gleichem Flächenverhältnis und effizienter.

AMD gab an das deren Angabe 7nm+ kein EUV ist! Daher haben sie ihre Roundmap der Angabe (physk. Größenverhältnisse) von TSMC angepasst.
 
Wenn ein Oldtimer wie die 2080Ti nach 2 Jahren noch (Stand jetzt gerade) 1100€ und aufwärts kostet, was wird wohl eine 30% schnellere nagelneue Ampere kosten?

Die Frage ob 3080Ti oder 3080/3070 ist mMn nur bezüglich der Preisgestaltung der anderen Karten interessant. Je höher die Modellbezeichnung der 30% schnelleren Karte, "desto weniger teurer" werden die kleineren Modelle ausfallen.

Also besser eine 3080Ti ist 30% schneller als die 2080Ti, als zb. eine 3070. Denn sonst kostet schon die 3070 stolze 1000€ (oder mehr). :ugly:

Aber so gut wie sich die RTX scheinbar verkaufen macht es gar nichts, wenn die Leistungsklassen jetzt mal wieder alle um 200-300€ im Preis angehoben werden. Ich denke die RTX3060 wird sich auch für >600€ noch gut verkaufen. :rollen:

Den Preisanstieg den Du hier beschreibst existiert in dem Umfang ja nicht, das sind die offiziellen MSRP Preise von Nvidia:

GTX 780 => 499$ (wobei zuerst 649$, nach AMD's R9 290X dann offizieller Preisnachlass).
GTX 980 => 549$
GTX 1080 => 599$
RTX 2080 => 699$

Zwischen 2013 (GTX 780) und 2018 (RTX 2080) betrug die US Inflation insgesamt 7,8%, das heißt 499 Dollar im Jahr 2013 entsprechen ca 540 Dollar im Jahr 2018.
Das ist ein Anstieg von 160 Dollar in 7 Jahren, der Unterschied ist der dass AMD damals konkurrenzfähig war (die GTX 780 mit 649 Dollar würde 2018 exakt dem Preis einer RTX 2080 in 2018 entsprechen) und wir aus europäischer Sicht eine im Vergleich deutlich höhere Steuerlast tragen und der Eurokurs im Vergleich stark gefallen ist (zu GTX 780 Launch: 1,35 Dollar - zu RTX 2080 Launch: 1,15 Dollar).
Gerade aufgrund dieser 2 Faktoren spüren wir das hier viel heftiger wie in den USA z.Bsp.

Und dafür kann Nvidia wirklich nichts.
 
das scheint die 3080 zu sein, aber erstmal abwarten.
Im Prinzip ist es auch nicht so relevant, was genau es ist.

"Nur" eine 3090 oder Titan wäre natürlich desaströs, aber das halte ich für eher unwahrscheinlich.

Und selbst wenn es eine 3080 ist, werden die 3090/Titan nicht mehr deutlich mehr an Leistung draufpacken. Im Vollausbau sind es gegenüber einer 3080 knapp +25% Shader. Die großen Karten takten standardmäßig niedriger, sodass du diese rund +25% Shader auf der einen und -x% Takt auf der anderen Seite hast. Shader (und auch Takt) skalieren nie 1:1, also lass es dann am Ende +-15% zum aktuellen 3DMark sein. Ist ja immerhin dieselbe Architektur und derselbe Chip, die können also nicht auf wundersame Weise plötzlich Performance herzaubern, die es bei der 3080 dann nicht gibt.
 
GTX 780 => 499$ (wobei zuerst 649$, nach AMD's R9 290X dann offizieller Preisnachlass).
GTX 980 => 549$
GTX 1080 => 599$
RTX 2080 => 699$

Und jetzt mach das mal mit den High-End (Consumer-) Chips der Architekturen. Worst Case im Vollausbau.

UVPs:
GF110 --> 480€
GK110 --> 999€
GM110 --> 1149€
GP102 --> 1349€
TU102 --> 2699€

Das ist die Preissteigerung, die der jeweils schnellste Consumerchip von NVidia erfahren hat, wenn man die (wie üblich bei Hardwareherstellern völlig irreführende) Namensgebung der Karten ausblendet und auf der technischen Seite schaut. Über 560%.

(Ja, die "Titan"-Karte mit Vollausbau des dicksten Chips plus doppelter Speichermenge gabs bevor man die Karten so nannte für ~600€ als GTX580 3GB ;-))
 
Und dafür kann Nvidia wirklich nichts.
Milchmädchenrechnung.:D

Andere Elektronikartikel sind trotz der Inflation und MwSt deutlich billiger geworden, Oled oder Qled zum Bsp., was klar im Enthusiast angesiedelt werden kann. Nur wurden die bisher wenig gekauft und dann fallen die Preise ohne Konkurrenz auch mal um 50%.

700-850 für einen Custom 104 ist schon frech! Das arme Nv.:schief:
 
Und jetzt mach das mal mit den High-End (Consumer-) Chips der Architekturen. Worst Case im Vollausbau.

UVPs:
GF110 --> 480€
GK110 --> 999€
GM110 --> 1149€
GP102 --> 1349€
TU102 --> 2699€

Das ist die Preissteigerung, die der jeweils schnellste Consumerchip von NVidia erfahren hat, wenn man die (wie üblich bei Hardwareherstellern völlig irreführende) Namensgebung der Karten ausblendet und auf der technischen Seite schaut. Über 560%.
Dass der absolute Ethusiastenbereich immens viel kostet bestreitet niemand, das kaufen aber die allerwenigsten.
Außerdem würde ich immer die offiziellen MSRP Preise von Nvidia nehmen, weil der Europreis aufgrund des Wertverlustes der Eurowährung und unserer höheren Steuerlast nicht wirklich vergleichbar ist.
Milchmädchenrechnung.:D
Andere Elektronikartikel sind trotz der Inflation und MwSt deutlich billiger geworden, Oled oder Qled zum Bsp., was klar im Enthusiast angesiedelt werden kann. Nur wurden die bisher wenig gekauft und dann fallen die Preise ohne Konkurrenz auch mal um 50%.
700-850 für einen Custom 104 ist schon frech! Das arme Nv.:schief:
Das ist keine Milchmädchenrechnung, sondern schlichtweg Fakt.
Die offizielle Preissteigerung von GTX 780 auf RTX 2080 betrug 160 Dollar, und wenn AMD damals die GTX 780 nicht mit der R9 290X gekontert hätte gäbe es keine Preissteigerung (da MSRP von 649 Dollar).
Jegliche weitere Steigerungen sind ein Resultat unserer höheren Steuerlast und des Wertverfalles der Eurowährung.
 
Den Preisanstieg den Du hier beschreibst existiert in dem Umfang ja nicht, das sind die offiziellen MSRP Preise von Nvidia:

Du hast vergessen, dass Nvidia die großen Chips heute als Ti und Titan verkauft. Das waren früher mal die x80er und x70er Chips. Die x80er Chips sind das, was früher einmal die x60er Chips waren.

Von der GTX 480, für 500€ ging es rauf auf 2750€, für die RTX Titan und von der GTX 470, für 350€, ging es bei der RTX 2080Ti rauf auf 1350€.

Ich finde, das ist eine krasse Inflation und das in 8 Jahren.
 
- Weil NVidia sich mangels Konkurrenz zurückgelehnt hat
- man wahrscheinlich nicht frühzeitig auf den 7nm TSMC gewechselt und darauf optimiert hat weils ihnen zu teuer war
- Im Gegensatz zu vergangenen Sprüngen die Shaderzahlen nicht besonders stark steigen
- Im Gegensatz zu vergangenen Sprüngen die erzielbaren Taktraten wahrscheinlich nicht nennenswert steigen
- Wahrscheinlich viel Aufwand und Fläche für RT verwendet wuirde was einer großen Steigerung der klassischen Rasterleistung entgegenspricht
- Recht eingängige gerüchte von bis zu 350W TBP sprechen was für eine "Gewaltlösung" spricht da man im klassischen 250W-Korsett die gewünschte Leistung wohl nicht erreicht hat
- [weitere Punkte]

Aus meiner Sicht spricht aktuell wirklich wenig dafür, dass Ampere performancetechnisch gut wird. Bei vergangenen Generationssprüngen gabs immer Gerüchte in beide Richtungen die zumindest plausibel waren, aktuell gehen die plausibleren Gerüchte (also nicht die alten "es kommt ein 8000-Shader-Chip der 100% schneller bei halbem Verbrauch ist!!!111eins") eher in ernüchternde Richtungen.

Denke auch das wir hier nicht viel neues sehen werden, RT wird wohl im Vordergrund stehen. Die klassische Rasterleistung wird sich nur müder erhöhen.
Ich denke auch AMD wird nix weltbewegendes raus hauen, aber im Vergleich zu Ihrem jetzigen Portfolio deutlich eher zulegen können.

erstens hat die 1080ti keine RT Kerne und zweitens ist die 2070 super um einiges schneller. 2060 Super ist 1080ti. wobei bei der 10xx immer noch die RT kerne fehlen und bei RTX games die 1080ti ab in den Keller fliegt. (Wenn dies genutzt wird)
zu den Benchmarks, denke ich nicht das es die 3080ti ist. sondern die normale 3080.

Die 2070S ist Custom vs. Custom kein bisjen schneller und hat weniger Speicher....
 
Zuletzt bearbeitet:
Du hast vergessen, dass Nvidia die großen Chips heute als Ti und Titan verkauft. Das waren früher mal die x80er und x70er Chips. Die x80er Chips sind das, was früher einmal die x60er Chips waren.
Von der GTX 480, für 500€ ging es rauf auf 2750€, für die RTX Titan und von der GTX 470, für 350€, ging es bei der RTX 2080Ti rauf auf 1350€.
Ich liste von der GTX 780 aufwärts, da gab es bereits eine GTX 780ti und eine Titan.
 
Dass der absolute Ethusiastenbereich immens viel kostet bestreitet niemand, das kaufen aber die allerwenigsten.

Dann mach die gleiche Rechnung mit den Chips darunter (also den 104ern). Viel anders ist das Ergebnis nicht.
Der GF114 kostete im Vollausbau 240€ UVP (GTX 560Ti). Was kostet nochmal eine 2080SUPER (gleicher Chip)...?
Klar sind das keine 500+%, aber rund das dreifache ists immer noch.
 
Von der GTX 480, für 500€ ging es rauf auf 2750€, für die RTX Titan und von der GTX 470, für 350€, ging es bei der RTX 2080Ti rauf auf 1350€.

Ich finde, das ist eine krasse Inflation und das in 8 Jahren.
Ist doch nur "eine" 1 oder 2 davor.:D

Da sprechen die Börsianer, nicht die Gamer!, für die Börse brauchst nur eine Intel iGPU. Die begrüßen solche Preissteigerungen, weil die Marge extrem ansteigt.
 
Die gemunkelten bis zu 70% sind dann wohl auf ein Spezialszenario bezogen?

Es sind eben nur Gerüchte.

Momentan sind da eben zwischen 30 und 75% Leistungssteigerung drin, sowie zwischen 8/10/12/24 bis 14/16/24/48GB VRTAM für die RTX 3070/3080/3080Ti(3090)/neue Titan.

Such dir aus, was dir gefällt bzw. was du für plausibel hältst. Ich hoffe ja auf das höhere Ende, also RTX 3080TI mit 22GB VRAM und 75% mehr Leistung. Darunter kann Nvidia sein überteuertes Gerümpel erstmal behalten.
 
Inflationsbereinigt gerne, da kannste am Ende ein paar Hundert Euro oder so abziehen.

Die Chipgröße ist aber nicht unser/mein Problem sondern das von NVidia. Wenn die immer größere Chips fertigen müssen um schneller zu werden weil es nicht durch anderen Fortschritt erzielt wird sehe ichs nicht ein, ihnen das im Preis schönzurechnen. Das mache ich auch nicht bei anderen Herstellern oder völlig anderen Produkten (kein Mensch würde auf die Idee kommen zu sagen "Jaa, der Motor ist zwar teurer als sein Vorgänger aber da musste noch den Hubraum rausrechnen". :ugly:
 
Zurück