Nvidia Ampere: Eckdaten zur Geforce RTX 3070 (Ti) machen die Runde

Frech ist er nicht, er hat ganz einfach Recht.
Naja einem zu sagen, er ist ein "Dödel" und war das schon als Kind, ist auch nicht besonders höflich.

Der Innovationsanspruch und dessen Inbegriff muss nicht für jeden zielführend sein, irgendwo geht es auch um Leistungszuwachs und das eine 2070 anfänglich viel zu teuer war, war mir jedenfalls klar. Da kann sich auch viel Frust aufbauen.

Eine 2070s macht es um Längen besser und das hätte dann auch der Sweetspot sein können (preislich und leistungstechnisch). Da hat Nv schon ein wenig die Massen abgegraben (Mondpreise und Deppenaufschläge verlangt). Die 3070 dürfte mit dem GA104 um ein vielfaches schneller ausfallen.
 
Dann entspricht GT104 fast zu GA104 Leistung? Die Karte heißt dann x070 und nicht mehr x080. Was für einen Fortschritt siehst du da, mal abgesehen davon das ich immer wieder darauf hingewiesen habe.
Das ist das berühmte Bäumchen- Wechsel- Dich- Spiel, was die Hersteller aber auch schon immer getrieben haben.
Eine realistische Bewertung der Gesamtsituation ist diesbezüglich sowieso erst möglich, wenn die neuen Karten auf dem Markt sind und die Leistungsdaten bekannt sind.
Dennoch wird dieses Verhalten der Umkategorisierung vom Konsumenten ja geradezu provoziert bzw. im Fall von RTX eingefordert.

Wenn man jetzt den Tenor aus dieser News postet, ist die Generation, wenn man nicht Top- End in die Gleichung miteinbezieht, ich zitiere aus dem Artikel:
Das wäre dann die berühmt-berüchtigte "indirekte Preissenkung von 700 auf 500 US-Dollar.
Sprich alter Wein in neuen Schläuchen, nur halt günstiger und ein wenig schneller, was aber, wenn wir ehrlich sind, eben auch genau den lautstarken Forderungen vieler User entspricht.

Diese "Preispeaks", wie zur Einführung der RTX gab es ja bereits über viele Generationen hinweg immer mal wieder.
Da hat man die Hardware aber eher als absolut exotisch abgestempelt und nicht zum "normalen" Grafikkartenportfolio dazugezählt (dual GPU/Custom Designs mit mehr Speicher, höherem Takt etc.).
Da konnte man schon vor Turing immer mal wieder über 1000,-€ bzw. 1000,-DM hinlegen.

Wie oben erwähnt, in Anbetracht der Innovationen der RTX- Reihe und des Fertigungsaufwandes, war es irgendwo klar, dass die Preise nach oben rutschen würden.
Das ist jetzt passiert und jetzt gehts wieder an die Produktpflege und Facelifts, welche dem User günstiger kommen werden.

Wäre dem nicht so, hätte NVIDIA marketingtechnisch ein Problem. Der Joker der großen Innovation für RTX, aufwändiger Fertigung und eine einhergehende Preissteigerung ist nämlich bereits gezogen...
Die Nummer zieht also nicht mehr.
 
Zuletzt bearbeitet:
Das ist das berühmte Bäumchen- Wechsel- Dich- Spiel, was die Hersteller aber auch schon immer getrieben haben.
Eine realistische Bewertung der Gesamtsituation ist diesbezüglich sowieso erst möglich, wenn die neuen Karten auf dem Markt sind und die Leistungsdaten bekannt sind.
Das ist richtig, aber innovativ ist daran nichts und zeigt auch nicht wie sich GA104 gegenüber GT104 weiterentwickelt haben soll, Nv hat also ein Problem? Anzunehmen ist der GA104 ist lediglich ein geshrinkter GA104 (womöglich mit den Tensor v3 [was ich noch nicht mal glaube]) und genau das spiegelt sich im Preis wieder, wenn man Chips pro Wafer rechnet. Es scheint nur eins zu gehen, entweder teuer und innovativ, oder schneller und preiswerter.

Dann solltet ihr auch eingestehen, dass die "architekturbedingten" +70% bei 50% Effizienz ein Hirngespinst waren (das trifft auf GA100 zu der sehr anwendungsbezogen ausgelegt wurde). Vermutlich wird AMD irgendwo da liegen; und Navi10 (5700Serie) soll ja auch nur ein Refresh sein. Sie machen es also ähnlich. Dann muss man abwarten was noch softwaretechnisch (Optimierung) machbar ist, aber das hat AMD schon unter Vega eingeworfen (Koduri war's) und alle haben darüber gelacht.
 
Bei den Daten kann NV nicht an der Preisschraube drehen - oder besser: Sie können es nur wenn AMD völlig versagt.
1. ist garantiert durch die PS 5 GPU, dass Navi 21 bis 2,23 GHZ takten kann und möglicherweise ist die XSX GPU ein härterer Gegner für die 2080 Ti als Nvidia lieb ist. Dann wird Big Navi tendenziell auch für die 3080 Ti eine harte Nuss. Bei 3584 Shader *1,25 Leistung pro Shader dürfte es darauf hinauslaufen. Vielleicht ist ja auch was an Navi 31 als wahrer Gegner der 3080 Ti und dann heißt es Vorteil AMD. Ergo bin ich der Meinung das wird verdammt interessant. Dann könnten mit Letzterer(Navi 31), sofern die Effizienzsteigerung da so weitergeführt werden das Problem für Nvidia auf dem Intel Level angekommen sein!

.
 
Sollten diese ganzen Gerüchte doch irgendwie zutreffen von nVidia, wirds sehr wahrscheinlich Big Navi, sowas von nVidia kann man ja nicht unterstützen... :daumen2:
Seit Kepler drehen die eh am Rad und dann sowas? Nope.
 
Wenn die Menge des VRAM wirklich stimmt, kommt ich mir doch irgenwie verschaukelt vor. Warum sollte eine 3070(Ti) nach all den Jahren trotzdem nur 8GB bieten. Das ist doch affig.
Naja, zumindest sollte die 3060 ebenfalls 8GB haben. Bei dem Nachfolger der 2060s weniger VRAM anzubieten wäre schon sehr komisch.
 
Ich sag nur NvCache.
Sie verbauen physisch 8GB und verkaufen es als 12GB.
Performanceimpact liegt aktuellen Erwartungen nach dann bei 5-15% sobald die festverbaute Speichermenge von 8GB überschritten wird,doch die FrameTimes bleiben sauber.

Wer hat's erfunden?
AMD
(HBCC in Vega10, Vega20, RadeonPro SSG, PS5 und X-Series X)
 
Wieso nicht?
Das würde dann auch den "Preisverfall" auf 500€+ erklären.

mfg
Ich halte es einfach für Unsinn, weil niemand für 10 oder 15 Prozent Mehrleistung eine neue Kartengeneration auf den Markt bringt; da gäb's dann einfach ein Refresh. Hat Nvidia - soweit ich mich erinnern kann - in der Vergangenheit ja auch nicht gemacht, also warum sollten sie ausgerechnet jetzt damit anfangen?

Für mich sind das einfach nur dieselben Schwarzsehapokalyptikerprophezeiungen, die die 3080 bei 1500 Euro vorhersagen - sinnlose Panikmache.
 
Einfach mal abwarten :D Sind noch 2-3 Monate. Richtige Leaks wirds wahrscheinlich in paar Wochen geben und dann sind wir schlauer. Ne 3070 TI, die um 500€ kosten wird, ist doch gut. Ne 3080 wird dann bei 700 und eine 3080TI 900€ liegen. Macht schon alles Sinn.

Nvidia wird wahrscheinlich 6-8 Modelle droppen. Für jeden was dabei.
 
Viele verschiedene Gerüchte...um wenige Karten. Aber die meisten Gerüchte sind weit weg von zubeginn komunizierter, enormer Leistungssteigerung. Das macht meine 1080Ti zu einem Dauerrenner.^^
AMD hat bei der als Prosumerkarte getarnten Gamingkarte Redeon 7 wenigstens schon mal 16GB installiert. Was mir Hoffnung macht das wenigstens die AMD modelle genug speicher bekommen.

Also wenn ich nicht wenigstens >60% auf meine 1080Ti drauf bekomme mit so um die 16GB Speicher für maximal 1000€ warte ich halt nochmal 2-3 Jahre mir doch egal. AMD, Intel, Nvidia, Banana-Computing, Chin-Chau Grafix...das is mir latte.
Spiele ich halt wieder 1080p mit mittleren Einstellungen ohne RT gedöns. Wie der Esel mit der Karotte an der Nase rumgeführt werden....Nö
Nvidia, so scheint es mir in letzter Zeit, hält sich beim Blick in den Spiegell für ein "must have" Untenehmen. Dabei haben Käufer die auf höhe der Zeit im High End kaufen wollen, nur einfach keine andere Wahl. Und so ist Nvidias Fahren mit Angezogener Handbremse immer noch der 1. Platz!

Schade das es keine 3-5 ähnlich starke Konkurenten gibt. Wenn der 1 nicht unter Druck steht gibt er nie alles, leider. um die 50% auf eine 2080Ti sollten beide großen Hersteller schaffen ansonsten wirds ne Lachnummer.
Wobei ich schätze das Nvidia einfach wieder 30% auf die 80Ti draufpackt für 1500 flocken und ihr ganzes Know How inclusive Platzbedarf an Ray Tracing verschwendet haben. So spart man auch Leistungsreserven für die 4000´er Modelle und muss sich nicht mehr groß anstengen um mindest Erwartungen zu erfüllen

...Ne 3080 wird dann bei 700 und eine 3080TI 900€ liegen. Macht schon alles Sinn.
....

Schade das ich das nicht glauben kann. jeder 2080Ti Käufer käme sich verar*cht vor^^ Aber dein Wort in Gottes Ohr:D:daumen:
 
Zuletzt bearbeitet:
das Gerücht macht kein Sinn
es gibt
Ga102 wovon rtx3080ti titan a und 3080 geplant sind.

ga104 3072shader als rtx3070ti wozu soll man da ein Modell mit nur 2944shader verkaufen
Dass ist zu gering für einen Modellstufe
eher wird man den ga102 auf 3840shader stutzen.
Was wiederum als rtx3070ti passen würde und genau zwischen rtx3080 4352 und rtx3070ti 3840 Sinn ergibt.

ga104 (3072) wird wohl dann bis zu rtx3050ti herunter gehen
3070 2944 oder 3072 499€ +20% zur rtx2070s = rtx2080s Leistung 8gb
3060ti=2816 shader 325€ +35% zur rtx2060s 8Gb
3060 =2560 275€ +18% zur rtx2060 6gb
3050ti = 2176 200€ zur +15% gtx1660ti 6gb

Und zum Abschluss den ga106 (1920shader)
Ob hier noch rt an ist Ist zu bezweifeln
rtx3050 =1792 175€ 4gb +10% gtx1070
rtx3040= 1280 125€ 4gb +-5% gtx1060
rtx3030 =896 60€ equal gtx1050

So und nur so macht es Sinn
Da nvidia aber alles in 8nm samsung herstellen muss wird das mit den angedeuteten 2,5ghz nichts.
ich erwarte um die 2ghz - 2,1ghz
bei etwa gleichen verbrauch wie jetzt.
Mit tsmc 7nm wäre man bei 2,4ghz im schnitt
aber es scheint so als ob man keine Kapazitäten bekommen hat (zum passendem Preis)
Daher erwarte ich auch keine wirklichen Leistungsunterschiede zu turing
Die software dagegen wird es ausmachen und nvidia wird versuchen dlss3 als wichtigste feature zu bewerben.
Und genau daher kommen die 75% mehr Leistung. kein wunder wenn man in halber Auflösung rendert.

beim speicher geht das Gerücht um das es sich eine neue art vom Verlustlosen Kompression handeln soll aus 6gb werden dann magische 9gb vram ~40% Ersparnis zu traditioneller Komprimierung.
Obs wahr ist ? Wäre zu hoffen da nvidia gerne beim vram knausert.
 
Die software dagegen wird es ausmachen und nvidia wird versuchen dlss3 als wichtigste feature zu bewerben.
Was soll denn DLSS3 sein? Ist da was im Busch?

Und genau daher kommen die 75% mehr Leistung. kein wunder wenn man in halber Auflösung rendert.
Geht ja nicht, da der Innovationsjoker schon gezogen würde. In jedem Test würde DLSS mit Vorgängergenaration gegen DLSS des Nachfolgers gestellt werden.
Und zum Vergleich würde DLSS gegenüber den AMD Karten ganz ausgestellt werden.
 
Nice, Raff´s Nachbetrachtung zum Thema HBCC ist als sehr lesenswerter PCGH+ Artikel online gegangen. Kann ich nur empfehlen :daumen:

@Prozessorarchitektur: Mit der Begrifflichkeit "verlustlose Kompression" tue ich mich etwas schwer, aber egal wie es Nvidia letztlich mit Ampere seinen Kunden verkauft, Sie haben da was in der Hinterhand, dass die Leute auch in 2020/2021 HighEnd-Karten, mit in meinen Augen, zu wenig physisch vorhandenen VRAM kaufen werden und machen sich die Taschen voll :D
 
Zurück