Nvidia Ampere: Neue Gerüchte um GA104 für Geforce RTX 3070 und GA106 für RTX 3060

Geht mir ähnlich nur mit einer GTX1080TI ^^
Schau dir mal das Video von IgorsLab an zu den GTX3080er und 3090 Modellen. Denke schon das die Karten so oder so ähnlich kommen.

Könnte mir daher gut vorstellen, das die RTX3080 ohne Zusatz den Platz der RTX2080ti einnimmt und bei über 1000€ einsteigt und die RTX2080ti etwas im Preis gesenkt wird.

Naja also das glaube ich nicht. Eine RTX 3080 für 1000 €? Der Preis ist viel zu hoch.
Nach weltweitem Corona sind die Einkäufe der Leute geschrumpft. Man überlegt sich erstmal genau was man sich nun zulegt. Arbeitslosenzahlen gehen in allen Staaten hoch, besonders USA. Das wissen auch die großen Konzerne.
Viele sind in den jetzigen Zeiten nicht mehr bereit Unsummen auszugeben (siehe Autos usw.), wenn es nicht wirklich dringend ist.

Nvidia sollte mal vom hohen Ross runter steigen und wieder menschliche Preise einführen wie bei Pascal damals. Leistung soll ja gut bezahlt werden, aber der Name darf nicht zum Selbstläufer werden.
 
Klar können die Konsolen nicht die vollen 16GB für Texturen nehmen, aber 12GB wird man schon auf der Karte haben müssen in absehbarer Zeit.

Naja, nicht ganz.

Die Konsolen haben von den 16 GB rund 12-14 GB verfügbar für ein laufendes Spiel. Davon wären dann 2-4 GB "normaler" RAM und die restlichen 9-11 GB als VRAM.
Und das mit 4K als target.

Ich denke am PC sollten 8GB VRAM für 1080p gut ausreichen, zumindest für die nächsten paar Jahre. Im High-End Bereich sollte sich aber was ändern, eine xx80 Ti mit 11 GB ist für den Preis doch fast lächerlich. 12-16 sollten es da schon sein.
 
"Ob die Werte also stimmen, ist fraglich. Zudem muss man sich die Frage stellen, wie sinnvoll eine Geforce RTX 3060 mit 6 GiB Speicher ist. Das dürfte selbst die Kunden abschrecken, die in diesem Preissegment unterwegs sind. Mittlerweile gelten 8 GiB als Quasistandard."

Es macht halt gar keinen Sinn, die 1060 und die 2060 hatten ja jetzt schon seit 2 Generationen 6 Gig, das war damals noch oke, aber in diesem Jahr wäre das für eine Mittelklasse einfach eine Abzocke und eine Frechheit. 8 Gig gibt es schon seit gefühlten Jahrhunderten auch schon bei Einstiegskarten im Endsegment. Oder hat man da nun schon wieder eine 3060 (super) im Blick, welche dann ein Jahr später kommt, um den Melkzyklus des Konsumschafes möglichst hoch zu halten? :D

Spekulatius, Spekulatius, Spekulatius, die Glaskugel bringt es nicht. Man muß wohl auf den Release und die Tests warten.

PS: Gute Ansage.

Naja also das glaube ich nicht. Eine RTX 3080 für 1000 €? Der Preis ist viel zu hoch.
Nach weltweitem Corona sind die Einkäufe der Leute geschrumpft. Man überlegt sich erstmal genau was man sich nun zulegt. Arbeitslosenzahlen gehen in allen Staaten hoch, besonders USA. Das wissen auch die großen Konzerne.
Viele sind in den jetzigen Zeiten nicht mehr bereit Unsummen auszugeben (siehe Autos usw.), wenn es nicht wirklich dringend ist.

Nvidia sollte mal vom hohen Ross runter steigen und wieder menschliche Preise einführen wie bei Pascal damals. Leistung soll ja gut bezahlt werden, aber der Name darf nicht zum Selbstläufer werden.

Das Problem ist halt wie beim Volk auch, da geht nur das Lernen durch Leid. Die Zustände bessern sich erst, wenn bei Nvidia die Zahlen massiv einbrechen. Solange melkt der Großaktionär die Nvidiakuh aus dem Kartellstall und die Kuh frißt derweil einfach noch kräftig den Konsumschafen das Gras vom Kopf, um es so zu sagen. :D
 
Naja also das glaube ich nicht. Eine RTX 3080 für 1000 €? Der Preis ist viel zu hoch.
Nach weltweitem Corona sind die Einkäufe der Leute geschrumpft. Man überlegt sich erstmal genau was man sich nun zulegt. Arbeitslosenzahlen gehen in allen Staaten hoch, besonders USA. Das wissen auch die großen Konzerne.
Viele sind in den jetzigen Zeiten nicht mehr bereit Unsummen auszugeben (siehe Autos usw.), wenn es nicht wirklich dringend ist.

Nvidia sollte mal vom hohen Ross runter steigen und wieder menschliche Preise einführen wie bei Pascal damals. Leistung soll ja gut bezahlt werden, aber der Name darf nicht zum Selbstläufer werden.
Die können nehmen was sie wollen. Die Karten werden sich trotzdem extrem gut verkaufen. Den Leuten bleibt ja auch nichts anderes übrig, wenn AMD in der Leistungsklasse nichts entgegenzusetzen hat oder selbst die gleichen Preise fordert. Ich bezweifle, dass du für 720€ ein lohnendes Upgrade für die GTX1080-8GB bekommst.

Lohnend wäre für mich ab +50% VRAM (auf 12GB) und +50-75% Leistung, aber dann natürlich nicht für mehr als 700€. Für über 700€ müsste es schon ne Verdopplung der Geschwindigkeit sein.

Bei Nvidia erwarte ich mir dieses Jahr nicht so ein Angebot, vielleicht bei AMD.
 
Naja also das glaube ich nicht. Eine RTX 3080 für 1000 €? Der Preis ist viel zu hoch.

Das sagst du. Nvidia gibt leider einen feuchten Dreck darauf was wir sagen. Die 2080 ist schon für ~850€ gestartet und er Nachfolger wird wieder ein Stück mehr kosten. So wie auch die letzten Generationen. Wer was anderes glaubt lebt in einer Märchenwelt. Selbst wenn AMD diesmal konkurrenzfähig sein sollte (was ich erst glaube wenn ich es sehe), könnte es durchaus sein das Nvidia keine Preise senken wird und AMD sich einfach den hohen Preisen anpasst.

Nach weltweitem Corona sind die Einkäufe der Leute geschrumpft. Man überlegt sich erstmal genau was man sich nun zulegt. Arbeitslosenzahlen gehen in allen Staaten hoch, besonders USA. Das wissen auch die großen Konzerne.

Alles Wunschdenken. Ich kann mir gut vorstellen das sie die Corona-Krise als Ausrede nutzen um die Preise sogar noch nen Stück anzuheben. Gekauft wird der Kram sowieso. Das weiß Nvidia spätestens seit der Titan.
 
Sollte sich das bewahrheiten, wäre das ein Schlag ins Gesicht für den aufrüstwilligen Kunden (wie mich)!

Derzeit noch mit der 1070 unterwegs, 2000er-Generation war zu teuer für die gebotene Mehrleistung, und jetzt soll ich ZWEI Generationen später kein Speicherupgrade bekommen??! (1070 8 GiB - 2070 8 GiB - 3070 8 GiB). Das wäre ziemlicher Mist!
 
Ein Grund mehr, warum man irgendwelche wilden Gerüchte besser einfach ignoriert ... :rollen:

Aus all den Gründen, die bisher schon genannt wurden, kann ich mir persönlich weder eine 3060 mit 6 noch eine 3070 mit 8 GB vorstellen. Insbesondere bei der 3060 wäre das nicht nur ein Rückschritt gegenüber der 2060S; der Speicher würde auch irgendwann überhaupt nicht mehr zur Rohleistung der Karte passen. Selbst bei eher konservativer Schätzung, wird diese bei der 3060 im Bereich der 1080Ti liegen - und die hatte 11 GB!

Zwei weitere Gründe für Nvidia, beim Speicher nicht allzu sehr zu knausern, sind zudem die Konkurrenz von AMD (deren Leistung und Speicherausbau man nicht einfach wird ignorieren können) und Raytracing. Will man Letzteres als "großartigste Innovation ever" pushen, wird man - insbesondere in den Modellen jenseits der 500 Euro - auch den dafür nötigen Speicher zur Verfügung stellen müssen, sonst wird das doch in vorhersehbarer Weise ein Rohrkrepierer. Bei Turing war das Ganze noch ein Spaß für Early Adopter, dem man Performanceprobleme großzügig verziehen hat. Bei der zweiten Generation RT-Karten sieht das aber schon ganz anders aus.

Also besser Gerüchte ignorieren und abwarten, was da am Ende wirklich kommt. Davon ist noch niemand gestorben ...
 
Also ich hoffe, dass AMD ein besseres Angebot abliefern wird. Es muss nicht die Leistung der 3000 Generation sein, aber wenigstens 2000 mit mehr Ram.
 
Ende 2020 sind GPU´s mit nur 6 GB VRAM ein NOGO. Man hat es doch gesehen bei der RTX 2060 die mit nur 6 GB VRAM und dazu dem viel zu hohen Preis wie Blei in den Regalen lag. Die 2060 Super hat dann 8 GB VRAM und die Verkäufe haben sich gebessert aber kein Vergleich zu damals der 1060 und der RX 480. AMD hat diesen Fehler auch mit der RX 5600XT gebracht und dieser nur 6 GB VRAM spendiert und auch diese liegt wie Blei in den Regalen und hat auch einen zu hohen Preis das man dann zur RX 5700 greift.

Ich hätte mir schon einen neuen PC geholt da die RAM,CPU und SSD-Preise zur Zeit wirklich in Ordnung sind finde ich aber die GPU-Preise als Wucher. Als Zocker der in 4K spielt kann man nie genug Leistung und VRAM besitzen und eine 3080 und TI sollte minimum 12GB besitzen aber Nvidia hatte ja schon die 2080 beschnitten wo eine 1080TI schon 11 GB VRAM hatte.

Ich werde erst wieder eine GPU kaufen die 100% mehr Leistung bringt als meine GTX 1080 und 12 GB VRAM hat für 500€. Diese Preisspirale von Nvidia und auch AMD mache ich nicht mehr mit und dann muss ich eben ein paar Jahre warten.
 
Eine RTX 3060 Ampere mit 6GB Speicher, nach dem schon in sämtlichen Foren die RTX 2060 Turing mit 6GB eigentlich gnadenlos durchgefallen ist und Nvidia genötigt wurde doch noch eine 8GB Version der RTX 2060 nachzuschieben, wäre nicht nur ein Fail, sondern auch dämlich. Eine RTX 3060 mit 8GB wäre aber dann von der Leistung her schon sehr nahe an der RTX 3070 mit 8GB, dann gäbe es nur zwei Möglichkeiten, entweder der RTX 3070 etwas mehr Speicher zu verpassen, was Nvidia mit ihrem VRam Geiz aber gehörig gegen den Strich gehen würde, oder halt einen schnelleren Speicher zu verbauen, also eine RTX 3070 mit 8GB GDDR6X.

Mensch Nvidia, was spricht denn dagegen, eine RTX 3060 mit 8GB, eine RTX 3070 mit 12GB, eine RTX 3080 mit 16GB, eine RTX 3080Ti mit 16GB GDDR6X, eine RTX 3090 mit 20GB und eine Ampere als absolutes Flaggschiff der Serie mit 24GB VRam auszustatten. Wir dümpeln jetzt seit 4.Jahren mit den 8GB VRam bei der XX70er Serie rum, mittlerweile haben viele schon einen WQHD oder UHD Monitor, oftmals sogar mit 120/144/165/240 Hz, weil sich die Ansprüche der User wie auch die Technik weiterentwickelt haben. Da sollte es doch auch bei Nvidia eine Weiterentwicklung geben und ein bisschen an mehr VRam drin sein, oder muss erst wieder AMD mit Big Navi kommen und zeigen wie das geht! :hmm:
 
Unmöglich da dies eine 2070 super für 500 schon macht. 2080 ist schneller in neuen games sogar deutlich. speicher argument kann ich nicht mehr hören. mit 8gb schaffst alles was anständig optimiert ist problemlos in 4k LOCKER.

Leider sind nicht alle Spiele "anständig optimiert".
In manchen Games, mit entsprechenden Settings (zocke in WQHD), laufen meine 8GB VRAM schnell voll und, falls unterstützt, rettet mich da oft das HBCC der Vega. Von daher sollte es schon mind. 10 GB VRAM werden. Egal ob NV oder AMD.
Gruß T.
 
Das Portfolie weiß auf jeden Fall zu Gefallen und endlich wieder eine xx70ti, die ja mit höherem Takt auch einiges herausholen kann. Man will anscheinend keine 2070 A und non A mehr, oder Super.

Der reinen Shaderanzahl nach, würde ich eine neue Gen ohne nähere Info nicht mehr einstufen wollen, vor allem wenn sie gezielt für Feature wie DXR ausgelegt wird (was Nv ja ankündigte; vor allem RT optimiert und leistungssteigernd) und damit RTX pushen soll. Da kommt es eher auf Tensor und RT Cores an, die in einem bestimmten Verhältnis zu der Shaderanzahl stehen sollten.

Ich finde das es Nv so richtiger macht, wenn die Preise halbwegs stimmen, als noch mit Turing. Vor allem sollte man im Gamingsegment keine Hardware mehr launchen die kein RT unterstützt, wenn man solche Feature als zukünftig etabliert im Spielebereich ansieht.

Edit sagt: ...Euren News-Text noch mal Korrketur lesen, da fehlen Buchstaben usw..:)
 
Zuletzt bearbeitet von einem Moderator:
Halte ich für sehr unwahrscheinlich, selbst eine RTX 2060 Super hat bereits 8GB Vram, daher rechne ich mit 8GB für eine mögliche 3060.

Nvidia war aber immer schon sehr geizig mit Speicher, am liebsten würde ich mir 12 GB für die 3080 und 16GB für die Ti wünschen, aber am Ende werden es wohl 10 und 12 GB werden.
Ich denke AMD wird hier nicht so knausrig sein, siehe z.Bsp. die 16GB HBM2 Speicher der Radeon VII.
 
Das Portfolie weiß auf jeden Fall zu Gefallen und endlich wieder eine xx70ti, die ja mit höherem Takt auch einiges herausholen kann. Man will anscheinend keine 2070 A und non A mehr, oder Super.

Der reinen Shaderanzahl nach, würde ich eine neue Gen ohne nähere Info nicht mehr einstufen wollen, vor allem wenn sie gezielt für Feature wie DXR ausgelegt wird (was Nv ja ankündigte; vor allem RT optimiert und leistungssteigernd) und damit RTX pushen soll. Da kommt es eher auf Tensor und RT Cores an, die in einem bestimmten Verhältnis zu der Shaderanzahl stehen sollten.

Ich finde das es Nv so richtiger macht, wenn die Preise halbwegs stimmen, als noch mit Turing. Vor allem sollte man im Gamingsegment keine Hardware mehr launchen die kein RT unterstützt, wenn man solche Feature als zukünftig etabliert im Spielebereich ansieht.

Edit sagt: ...Euren News-Text noch mal Korrketur lesen, da fehlen Buchstaben usw..:)

Wenn die Preise stimmen wäre das ein tolles Lineup, da gebe ich dir recht. Wenn! Die Preise sollten geringer als bei Turing sein, meiner Ansicht nach wollte Nvidia die R&D Kosten für RTX mit Turing reinholen und hat deshalb die Preise so stark erhöht. Mit Ampere könnten sich die Preise wieder normalisieren.

Wenn ich dann allerdings höre dass der Kühler der 3080 angeblich $150 allein kostet und man auf eine neue Speicherart, GDDR6X setzt, dann bin ich da wieder weniger optimistisch.
 
Das Portfolie weiß auf ejden Fall zu Gefallen und endlich wieder eine xx70ti, die ja mit höheren Takt auch einiges herausholen kann.
Seit Pascal ist es aber so, das mehr an FPS wurde meist über das OC vom VRam und der dadurch höheren Speicherbandbreite erreicht. Der Takt ist meist schon durch die Weiterentwicklung des integrierten Turbo-Boost bei Nvidia ziemlich ausgereizt und leztlich höher als in den Spezifikationen genannt, von daher spielt der GPU-Takt für das manuelle OC meiner Meinung nach, keine so große Rolle. Von daher macht mehr und schnellerer VRam schon deutlich mehr Sinn bei den neueren Grafikkarten von Nvidia, so meine Erfahrung. :hmm:
 
Ich denke AMD wird hier nicht so knausrig sein, siehe z.Bsp. die 16GB HBM2 Speicher der Radeon VII.
Die Karte ist ja eher für Prosumer gedacht, und technisch ließe sich das wegen der Verfügbarkeit vorhandener HBM Module zu dem Zeitpunkt nicht anders lösen. Letztlich war es ein Griff ins Pro Regal um ein Zeichen zu setzen, das man noch da ist.

12GiB wären für Highend mittlerweile schon irgendwo Pflicht. Man würde den Bereich auch wegen seiner Preisgestaltung etwas mehr abgrenzen und Leuten die sich dafür entscheiden mehr mitgeben.

Seit Pascal ist es aber so, das mehr an FPS wurde meist über das OC vom VRam und der dadurch höheren Speicherbandbreite erreicht.
Bandbreite hilft dir leider beim schieren Ausbau in der Größe nicht, wenn er benötigt wird und dann muss gestreamt oder ausgelagert werden. Die Entwickler packen immer wieder gerne Daten in den schnellsten Speichertyp nahe der GPU, der nunmal der VRAM ist. Und falls ich das schreiben darf, die hätten schon längst gerne 16GiB.
 
Das der ga106 30sm bekommt ist seit märz bekannt aber in welcher Fertigung ist offen samsung 8nm Lp oder tsmc 7nm
damals war die rede von bis zu 2,5ghz und etwa 20% ipc+
das man aber die rtx 3070 ga104 in drei modelle spaltet wird ein problem werden
3070 für den vollausbau ist ok bei etwa 1,9ghz liegt man bei enn preis um die 500€ auf rtx2080ti niveau
Dann aber ein modell mit nur 44sm und eventuell ein modell mit 36sm zu bringen macht kaum Sinn außer.
Die trtx3060 wird max 150-200€ kosten und zusätzlich wie die anderen sku beim takt gestapelt vermutlich unterschiedliche fertigungen.
Samsung 8nm dann max 1,8ghz vergleichbar mit der rtx2060
tsmc 7nm+ mit 2,5ghz bei 250€
usw
Alles steht und fällt da auf der Fertigung.
nvidia hat beim poker um die wafer Kapazitäten einfach verloren.
zu wenig 7nm euv bekommen und die chips auf 7nm adv und samsung 8nm LPP portiert
das erklärt auch die erhöhten TDP beim ga102
Mich würde eine TDp beim ga04 von 250w und ga106 bei 175w nicht wundern.
Und somit keine effizienzsteigerung zu turing gpu ergeben.

Bleibt nur eins zu hoffen das nvidia dlss3 und dessen wunder texture Kompression wirklich bis zu 40% einsparen können.

Die infos sind vor der gtc herausgekommen jetzt bestätigen die sich teilweise mit überraschenden sku's
bei den preise wird man wohl auf amd abwarten bedeutet eine rtx3060 in schnell(2,5ghz) werde wir vor märz 2021 nicht sehen.
Gut möglich das am das lineup komplett auflegt bis dez 2020 und nvidia nur die high end modelle bereitstellt.
Das wäre die situation wie 2010 mal gab und fermi die heißeste gpu am markt war.

Also wird nvidia wohl die preise für turing ab herbst drastisch senken. Dazu der geringere mwst und die rtx2060s wird für etwa 275€ zu bekommen sein.
Da bleibt eine frage offen.
Wie gut wird ampere vs turing sein in der ipc um dann nochmal 6 Monate zu warten. bzw ist amd rdna navi23 schon jetzt besser?
 
Alles steht und fällt da auf der Fertigung.
nvidia hat beim poker um die wafer Kapazitäten einfach verloren.
zu wenig 7nm euv bekommen und die chips auf 7nm adv und samsung 8nm LPP portiert

das erklärt auch die erhöhten TDP beim ga102
Mich würde eine TDp beim ga04 von 250w und ga106 bei 175w nicht wundern.
Und somit keine effizienzsteigerung zu turing gpu ergeben.
Dann pass bloß auf das nicht gleich jemand um die Ecke kommt, der dich eines Besseren belehrt. Ich vermute es geht nur noch um Min..:D
 
Zurück