Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch

Ich werde wohl nicht die 3-6 Monate [könnte durchaus bis März dauern] auf die RTX3080Ti warten, aus folgenden Gründen:

Viele machen jetzt einen auf 'Big-Brain', lassen die RTX3080 mit der niedrigen Speicherausstattung und die RTX3090 mit dem hohen Preis liegen, in der Hoffnung, dass die RTX3080Ti mit großzügigem Speicher und moderatem Preis kommt. Das ist allerdings wieder genau das was Nvidia einkalkuliert und sie wissen genau, wie sie sich daraus einen Vorteil verschaffen können.

Ich hab auch schon bei der RTX3090 voll ins schwarze getroffen und lehne mich nochmal aus dem Fenster:
Die RTX3080Ti (evtl Super?) wird sehr teuer, wahrscheinlich 1199$, außerdem nicht bedeutend schneller als die RTX3080(10GB), damit der Abstand zur RTX3090 gewahrt bleibt und ein Release wird wohl auch eher im März zu erwarten sein. Paper-Launch wahrscheinlich zeitgleich mit BigNavi, damit die Leute was zum Nachdenken bekommen, aber kein Hard-Launch. Man wird versuchen es ein wenig nach hinten zu ziehen.
Nvidia wird uns hier keine 999$-Karte mit 20GB Speicher zuwerfen, die nahezu RTX3090-Leistung erreicht und viele damit für 3-4 Jahre glücklich machen würde. Sind Wunschträume.

Das werden sie zu verhindern wissen.
Es gilt wie immer: Leistung zurückhalten oder Preisgestaltung bis zur Kotzgrenze ausreizen. :daumen:
Daher RTX3090 und gut ist. Das Ding wird die Krone jetzt eh für gut 2 Jahre behalten. Darüber kann's nur ne Titan geben.
 
Der 3080 mit mehr Speicher(Ti/Super) soll doch 20 GB bekommen.
Die 16GB Version wird die 3070Ti.

Und diese wird bestimmt auch keine 1000+€ kosten.
Aber natürlich schon weiter weg von der Leistung der sauteuren 3090 bleiben.
 
Ja RTX3070 mit 16GB, aber es bleibt eine RTX3070.
Die hat ja weit weniger Leistung als die RTX3080 und RTX3090, wenn auch, verglichen mit Turing, viel.
 
Daher RTX3090 und gut ist. Das Ding wird die Krone jetzt eh für gut 2 Jahre behalten. Darüber kann's nur ne Titan geben.

Ich bin da nicht so sicher, was meinen Enthusiasmus etwas bremst. Die RTX 3090 bietet keinen GPU-Vollausbau: Geschenkt - den bot die erste Titan Anfang 2013 auch nicht. Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Klar, die 3090 wird dann immer noch in den Top 3 herumschwirren, daneben aber wie ein Säufer aussehen. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen. Es kann natürlich auch sein, dass Nvidia 7 nm (in diversen Farben und Formen) für die Gaming-Chips überspringt und 2022 direkt auf 5 nm geht. Wer weiß das schon ...

MfG
Raff
 
Bei Fermi war's ja nur ein Metal-Spin, um die gemeinen Leckströme einzudämmen, IIRC. Wow, das ist schon zehn Jahre her. :wow:

Bei Ampere besteht die Möglichkeit, das Ding wirklich und richtig effektiv zu shrinken. Die Frage ist, ob Nvidia diesen Portierungsaufwand betreibt ... oder 2021 lediglich "Kicker" wie die RTX-20-Super-Karten bringt, diesmal mit mehr Speicher.

MfG
Raff
 
Verstehe ich das richtig, das die 3080 FE so laut/leise ihren Dienst verrichten wird wie die 2080 FE? :) müsste mal schauen wieviel Sone die 2080 FE hatte. Klingt aber ganz gut auch wenn mich der 3090 Kühler mehr reizt ^^

Edit :

Laut PCGH Test unter 2 Sone. Dazu noch etwas UV und die 3080 (mit 20GB) wird in der FE für mich der No Brainer :)
 
Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen.
Puh, ja schon, aber die Frage ist, ob sich die lange Wartezeit lohnt. Ich brauche schnell (jetzt sofort) Mehrleistung und ein weiteres Jahr will ich nicht warten. Sicherlich wird Nvidia demnächst durch Fertigungsverbesserung und Architekturverkleinerung wieder die Effizienz steigern und es stimmt, dass Ampere dann im Vergleich sehr durstig aussehen wird (sehen sie ja jetzt schon). Ähnlich war es bei der GTX980Ti (Maxwell) und dann der GTX1070/GTX1080 (Pascal). Da sah eine übertaktete GTX980Ti auch wie ein Loch aus und wurde gleichzeitig überholt. Was du sagst macht auf jeden Fall Sinn und könnte so kommen. Aber das ist alles noch recht lange hin und Ampere vor dem Release schon abzuschreiben halte ich für unangebracht. Abgesehen davon kann es passieren, dass BigNavi langsamer wird als viele hoffen und dann wird Nvidia sein Pulver nicht verschießen wollen. EUV und 7-5nm kann man dann ganz entspannt in 2 Jahren zu Hopper bringen und dann ist diese Generation auch schon mehr oder weniger in trockenen Tüchern.
 
Ich bin da nicht so sicher, was meinen Enthusiasmus etwas bremst. Die RTX 3090 bietet keinen GPU-Vollausbau: Geschenkt - den bot die erste Titan Anfang 2013 auch nicht. Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Klar, die 3090 wird dann immer noch in den Top 3 herumschwirren, daneben aber wie ein Säufer aussehen. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen. Es kann natürlich auch sein, dass Nvidia 7 nm (in diversen Farben und Formen) für die Gaming-Chips überspringt und 2022 direkt auf 5 nm geht. Wer weiß das schon ...

MfG
Raff

Du beschreibst wunderbar die Möglichkeiten. Aktuell kann man sich in den vielen Optionen verlieren - persönlich denke ich, wer versucht den absolut besten Deal zu bekommen wird ggf. lange Zeit garkeine GPU kaufen.
AMDs Release steht noch aus, ob eine 3080ti überhaupt kommt, oder nur eine 3080 mit doppelt soviel Vram ist komplett offen. Wenn letztere, wie von deady angesprochen, wirklich nur eine 3080 mit mehr Vram sein sollte, dann zahlt man einen Aufpreis, bekommt aber halt auch nur den Vram obendrauf.

Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?
 
War doch bei Turing auch schon so dass der Launch segmentiert wird damit die Technikhäppchen auch anständig unters Volk kommen.

Dürfte imho eher daran liegen das sich zwangsläufig die 3070 am meisten verkaufen wird da sie am günstigsten ist, somit braucht man da die größten Stückzahlen und somit einfach ca. einen Monat länger Zeit genügend Chips herzustellen.

Das die 3090 eine Woche später kommt, dürfte primär Marketing sein, die 3090 kostet mehr als das doppelte, wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben, daher dürftes im Interesse nvidias liegen, das sich alle erstmal auf die 3080 Fokussieren.
 
Schade, dass im Artikel gerade auf die Frage nach dem Speicher nicht näher eingegangen wird. Mich würde schon interessieren, warum man sich bei der 3070 und 3080 auf 8 respektive 10 GB Speicher begrenzt hat. Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...

Wurde imho in einem der Videos erklärt, es gibt GDDRX6 Speicher bisher erst in 1 GB Bausteinen ... ergo bräuchte man für 16 oder 20 GB einfach mehr Platz ... nicht ohne Grund ist die 3090 größer als die 3080 ... das dürfte quasi ausnahmslos auf die 24 Speicherbausteine zurückzuführen sein. Sobald dann irgendwann GDDRX6 Speicherbausteine mit 2 GB verfügbar sind, kann man immer noch eine Super (oder TI) nachreichen mit etwas höheren Taktraten und doppeltem Speicher, da man dann ja kein größeres PCB benötigt.

Dürften aber dann eher 200+ € Aufpreis sein ... Speicher ist zwar nicht mega teuer, aber GDDRX6 Speicher gibt es nur von Micron, die haben also ein Monopol darauf und können somit die Preise hoch halten.
 
Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?

Lief nicht das Gerücht rum, dass es am 14. so weit sein soll ?
Evtl. ab 17. für die Customs ?
Gab's da nicht n Video von den Kanadiern zu ?

Ich mein ich hätt da was gelesen/gesehen.

Kann ja jemand vielleicht mal bestätigen, denn Raff darf sicher nicht sagen, wann das NDA fällt, weil's wahrscheinlich Teil des NDA ist.

Und ja, die ganzen Möglichkeiten sind schon umfangreich diesmal.

Am besten ist, man weiß genau was man will und wann. :) Dann hält sich die Verwirrung in Grenzen.
(Ein weiteres Custom Modell gefällt mir auch ganz gut(massiv! :cool:), wo ich noch die Tests abwarte, aber dann wird bestellt. :D)
 
Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?
Diese Frage kommt immer wieder auf in den letzten Tagen, wieso geht keiner darauf ein? Fällt es jetzt schon unter NDA ab wann Tests veröffentlicht werden dürfen?


edit: Da war Chris einen Ticken schneller. ^^
 
Die 3090 kostet mehr als das doppelte, wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben, daher dürftes im Interesse nvidias liegen, das sich alle erstmal auf die 3080 Fokussieren.
Ich seh's anders herum. Die verteilen das ganz gut.
RTX2070 für die breite Masse, als Konkurrenz für BigNavi.
RTX3080 für die, die eine ordentliche Mehrleistung, abgesehen vom VRAM, gegenüber Turing wollen, allerdings nicht so viel Kohle ausgeben wollen.
RTX3090 als Flaggschiff mit voller Leistung, extrem viel VRAM, für Leute, die bereit sind dafür zu bezahlen.

- 20% mehr Kerne für je Shader, Tensor und CUDA
- 20% schnellerer Memory-Bus
- 240% VRAM
[- vermutlich besseres Binning]

Denke der Leistungsunterschied zwischen RTX3080 und RTX3090 dürfte, unter einer VRAM-Auslastung von weniger als 10GB, bei 20-30% liegen - ansonsten weit höher.
Allein durch die höheren Kernzahlen in allen Bereichen und durch den schneller angebundenen Speicher müsste die RTX3090 mehr als 20% Mehrleistung bieten.
Die 3090 [...] wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben
Eher 25%-30%. Rein logisch betrachtet kann die nicht nur 10-20% mehr leisten.

vgl.jpg

Hab's mal aufgemalt.
 
Zuletzt bearbeitet:
Warum hast Du Dir dann ne 8GB Karte in Form einer RTX 2070 super gekauft. Die stimmt mit deinen Ansprüchen in keinster Weise überein. 3 Jahre-Texturpackete-modden und 8GB...passt nicht.

War eine Brückeninvestition, da dieses Jahr bisher eh nicht viele AAA+ Spiele erschienen sind und ich auf Ampere gewartet habe. Dass die (3070 und 3080) Ampere-Karten jetzt aber gar nicht oder nur kaum mehr Videospeicher haben, hatte ich so tatsächlich nicht erwartet.
 
Zuletzt bearbeitet:
Sorry, vielleicht habe ich irgendwo einen Knoten im Hirn aber wenn ich mir versuche das Ganze räumlich vorzustellen:
Der Lüfter, der den warmen Luftstrom von der GPU nach oben ins Gehäuse drückt sitzt am hinteren Ende der Karte. Je nach Board also bei Position "Slotblech +22-30 cm". Das ist also quasi fast bei der Front des Gehäuses, höchstwahrscheinlich aber am den Slotblechen gegenüber liegenden Ende des Mainboards.
Der CPU-Sockel sitzt natürlich je nach Modell auch an verschiedenen Positionen, im Allgemeinen wird aber möglichst die Distanz zum schnellsten PCIe-Slot und anderen I/O Ports kurz gehalten.
Damit die Luft der GPU hinter dem CPU-Kühler ankommt müsste die CPU aber an der vordersten Kante des Mainboards sitzen.

Bei meinem Modell z. B. passt zwischen Gehäuserückseite und CPU-Kühler aber gerade noch eine flache Hand. So genial ich nVidias Idee auch finde: Aktuell geht mein i7 8700 schon oft auf 70°C (in Games bei sparsamen 30-60 W, einzelne Peaks bis 90 W), da die Graka zuviel vom Luftstrom abknapst. Wenn die Luft durch die Graka käme wäre zwar der allgemeine Durchfluss besser, meine CPU würde aber sehr sicher gegrillt oder?

Du scheinst dabei aber zu vergessen, dass bei quasi allen aktiv luftgekühlten Grafikkarten, die aktuell erhältlich sind, Lüfter die Abwärme auf der ganzen Oberseite der GPU nach "oben" blasen Richtung CPU. Sprich, hier wird sowohl vor als auch hinter den CPU Kühler warme Abluft geblasen. Vor diesem Hintergrund ist das nvidia Design auf jeden Fall eine Verbesserung, weil hier versucht wird, nur möglichst weit hinten warme Abluft zu produzieren, während gleichzeitig aktiv kältere Luft von unten zur Karte geführt wird. Das Lüfterkonzept ist somit positiv sowohl für die Kühlung der GPU als auch der CPU, verglichen zu den aktuell üblichen, luftgekühlten Grafikkarten.

Bezüglich der Position der CPU wäre es thermisch tatsächlich besser, wenn man die weiter nach vorne (Gehäusetechnisch) verlegen würde und z.B. die Position der CPU und der RAM-Riegel switchen würde. Dann müsste der CPU-Kühler tatsächlich nicht noch die ganez warme Abluft der GPU komplett verarbeiten bzw. wegschaufeln müssten. Dass das aktuell nicht gemacht wird im üblichen Mainboard-Design, wird aber wohl seine Gründe haben.
 
Zuletzt bearbeitet:
Hab das Video, welches jemand anders hier im Forum schon gepostet hatte(ich hab's nicht gefunden ;) ) , mal rausgekramt:

Launch

Keine Pre-Orders.

PS: Mehr weiß ich nich.
 
Zuletzt bearbeitet:
3080FE ist mickrig mit 2slots und gerade mal 28,5cm
3090FE ist mit 3slots deutlich beeindruckender
3080 Aorus hat ganze 4SLOTS PogChamp
 
3080 Aorus hat ganze 4SLOTS PogChamp

Ja, die is Nice ! :D Mal gespannt was die Tests zu den Temps sagen. :)
Hat die nicht sogar nur 2x 8Pin(also genauer gesagt 2x 6+2 pin ;) ) ?
Sollte vielleicht sogar nicht mal so schlucken, was auch kühlere Temps andeuten könnte. Aber mal schaun.

PS: Ich mag ja so "Brocken".

Is die 3090 von Aorus auch so ??? Gleich mal checken.


edit:

Die hat scheinbar auch nur 2x 8pin. :daumen:
Und ne relativ nette Anzeige. Find ich gut !

1.jpg

Kommt in die nähere Auswahl mit rein.

3 Jahre Garantie mit Verlängerungsmöglichkeit für "ausgewählte Modelle" ? Mal checken, ob die dann auch dabei is. :)
Das wäre allerdings dann schon n dickes Plus in meinen Augen.
5 Jahre Garantie wäre n Kaufkriterium für mich.
Mal lesen ...


edit:

Häh ?

GIGABYTE gewährt standardmäßig 3 Jahre Garantie ab Herstellungsdatum. Die `Garantie gilt ausschließlich für Fachhändler. Mögliche Garantieansprüche müssen vom Endkunden immer gegenüber Ihrem Fachhändler, bei dem das Produkt erworben wurde, geltend gemacht werden.

Nur für Fachhändler ?
Ab "Herstellungsdatum" ? Woher soll ich denn wissen, wann die "hergestellt" wurde. Steht das auf der Karte ? Und ich muss mich dann an den Verkäufer wenden ?

Hm ... ich seh mich schon mal nach nem Verkäufer mit gutem Ruf und guten Erfahrungen was Kulanz angeht um.
(Edit: Meine letzte Karte war n Gebrauchtkauf und sonst hab ich nie Service gebraucht, da meine GPUs ne kaputt gingen, bevor sie wieder weg waren)

Da macht es sich doch bezahlt, wenn man in der Vergangenheit positiv aufgefallen is.
Ich mach ja keine Werbung, da ich unbeeinflussbar bin, aber ich meine in der Vergangenheit wäre Caseking und Alternate positiv aus der Masse herausgestochen, was Kulanz anging, bei bestimmten Problemen, mit GPUs.
Wenn was gut is, soll man das ja auch ruhig sagen dürfen, find ich.

Sind die immer noch so gut drauf ?

Gab's da nicht damals Theater mit irgend ner Karte ? War das die GTX 970 oder so ?
Ich mein da wären die beiden Händler positiv aufgefallen, was Kulanz angeht ...

Oder war das was Anderes ? Wisst ihr das noch ?

Is ja n "paar Tage" her und ich werd auch nicht jünger. ;)

edit2: Nicht, dass ihr denkt ich wäre "Influencer" oder sowas. Ich merk mir nur manchmal Sachen und ich mag das Community-Prinzip auch z.B. der Steam Reviews, wo Sachen gnadenlos niedergemacht werden, wenn sie schlecht sind :devil: , aber auf der anderen Seite auch Lob kriegt, wem Lob gebührt.
Wie soll man sonst wissen was gut is !?
Nur um's noch mal ausdrücklich zu sagen: Ich arbeite in keinerlei hardware Bereich und ich kenn auch persönlich niemanden von Caseking, oder Alternate, noch krieg ich da irgendwie Geld, oder hab n Youtubekanal(hab keinen mit irgendwas).
Das einzige was ich in meinem Youtube hab, is glaub ich ne nicht öffentliche Playlist von Musik. ;)

Bin ein einfacher, alter, Zocker ! :D :cool:


edit3: bei mir gibt's nix spannendes. Wech bleiben ! ;)

2.jpg

Hab auch nich vor, das jemals zu ändern.


edit4:

Agesa ??? Bist du Influencer ? :D
Du arbeitest doch nicht für Gigabyte ? ;)
 
Zuletzt bearbeitet:
Zurück