Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch

Irgendwie lässt mich die ganze Nummer kalt, meine 1080 wird auch die nächsten Jahre noch reichen um mich im mp spiel meiner Wahl wegcheaten zu lassen. Wird wohl ne Playse.
 
Vielen Dank für den Artikel :daumen:.
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.
 
Ich frage mich ja ob die RTX3080 sich langfristig mehr lohnt und den Aufpreis ggü. der 3070 rechtfertigt.
Hauptächlich zocke ich auf einem 144hz WQHD IPS Panel, aber wenn 4K geht könnte man ja mal den 4K LG Oled anschließen.

zz.t habe ich noch eine 2060super drin, mit der wqhd super läuft.

Auch ist die Frage, ob es wirklich zu ausverkäufen kommt, bzw. die Preisentwicklung stabil bleibt oder sich nach release vll. doch nochmal erhöht.

Ich spekuliere auf eine Evga 3070/3080 XC3 - sieht wirklich schick aus das design. Kommt die 3070 für 499€ und dadrunter und die Benchs bewahrheiten sich wäre das eigentlich ein no brainer kauf.
699€ dagegen ist - auch in anbetracht der leistung - dann doch nochmal ne andere hausnummer.
 
Vielen Dank für den Artikel :daumen:.
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.

:)

NVIDIA RTXGI at 4K in Unreal Engine 4 - YouTube
 
Zuletzt bearbeitet:
Ich frage mich ja ob die RTX3080 sich langfristig mehr lohnt und den Aufpreis ggü. der 3070 rechtfertigt.
Hauptächlich zocke ich auf einem 144hz WQHD IPS Panel, aber wenn 4K geht könnte man ja mal den 4K LG Oled anschließen.

zz.t habe ich noch eine 2060super drin, mit der wqhd super läuft.

Auch ist die Frage, ob es wirklich zu ausverkäufen kommt, bzw. die Preisentwicklung stabil bleibt oder sich nach release vll. doch nochmal erhöht.

Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
 
"Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle.."

Das glaub ich auch, daß Nvidia das so kommuniziert, ist ja ein Verkaufsmerkmal und Verteuerungsargument. Die Frage ist halt, kann RT auch ohne spezielle Rechenkerne ausgeführt werden und ja das geht. Bedarf es noch starker softwareseitiger Optimierung, um weniger Ressourcen abzugreifen und werden damit zusätliche RT Spezialkerne überflüßig (das darf natürlich NICHT passieren :D )? Ja, nur wer nimmt das Geld dafür in die Hand?

Keiner? :D Weil der Bedarf auch nicht groß genug ist. So haben wir einen künstliche Verteuerung über ein massiv gehyptes Feature (man kann immerhin den Kunden damit triggern), welches noch suboptimal arbeitet. So geht Hardwarekartell.
 
Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.
Ich hoffe, dass die starken Karten jetzt auch eine leistungsfähige Mittelklasse nach sich ziehen. Mehr als 300€ gebe ich für eine Graka nicht aus, da reicht meine Zeit einfach nicht zu aus. Und die letzten Karten für die diesen Preisbereich gefiehlen mir in den letzten Jahren nciht so wirklich.
 
Irgendwie lässt mich die ganze Nummer kalt, meine 1080 wird auch die nächsten Jahre noch reichen um mich im mp spiel meiner Wahl wegcheaten zu lassen. Wird wohl ne Playse.

Puh, leider bemerke ich immer öfter, dass die 1080 zu schwach auf der Brust ist. Zumindest für WQHD. Mittlerweile ist die Karte in der unteren Mittelklasse angekommen.
Ausserdem will man ja auch endlich mal RT und eventuell DLSS testen.
 
Hat man schon was zu den Custompreisen gehört? Die 20er Serie war ja bei den Customs im Schnitt rund 100 Euro günstiger. Wird das bei den 30er auch so sein? EVGA hat nur gesagt, man könnte sich an den FE Preisen orientieren.
 
Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.
Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen. Daher gehe ich davon aus, dass die RTX3080Ti ebenfalls sehr viel kosten wird. Vermutlich irgendwas um die 1099-1199$ und ein gutes Stück langsamer als die RTX3090.

Überall gibt's einen Nachteil und das ist Absicht.
 
so ganz nach windows leistungsindex nimmt man das schwächste glied und zieht genau an dem punkt die leistungsgrenze für den rest.
RT ist wieder das schwächste glied mit gerade mal 40% beschleunigung gegenüber 20xx. > eindeutig ein RT-krüppel, kein GB-krüppel
 
Zuletzt bearbeitet von einem Moderator:
Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können und mir auch 8k Texturpakete in meine Spiele modden können usw.
Warum hast Du Dir dann ne 8GB Karte in Form einer RTX 2070 super gekauft. Die stimmt mit deinen Ansprüchen in keinster Weise überein. 3 Jahre-Texturpackete-modden und 8GB...passt nicht.
 
"Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle.."

Das glaub ich auch, daß Nvidia das so kommuniziert, ist ja ein Verkaufsmerkmal und Verteuerungsargument. Die Frage ist halt, kann RT auch ohne spezielle Rechenkerne ausgeführt werden und ja das geht. Bedarf es noch starker softwareseitiger Optimierung, um weniger Ressourcen abzugreifen und werden damit zusätliche RT Spezialkerne überflüßig (das darf natürlich NICHT passieren :D )? Ja, nur wer nimmt das Geld dafür in die Hand?

Keiner? :D Weil der Bedarf auch nicht groß genug ist. So haben wir einen künstliche Verteuerung über ein massiv gehyptes Feature (man kann immerhin den Kunden damit triggern), welches noch suboptimal arbeitet. So geht Hardwarekartell.

Überflüssig ist da gar nichts. Wenn leichtes RT schon auf einer nicht-RT beschleunigten Karte gut läuft, werden RTX Karten nochmals deutlich schneller laufen.

Langfristig gesehen wäre das sogar ein Vorteil. Wenn leichtes RT Raster-Effekte ersetzt, dann wäre die generelle Spiele-Leistung von RTX Karten deutlich höher als Karten ohne RT Beschleunigung. So wird es wohl auch kommen, RTXGI ist da ein guter Startpunkt.
 
Ich weiß ja nicht, wie dein Rechner so aufgebaut ist, aber eigentlich kommt der Abluftstrom der GPU genau hinter(!) dem CPU-Kühler an. Normalerweise befestigt man den CPU-Lüfter auf der vorderen Seite und zieht damit Luft von der Gehäusefront in die Lamellen rein. An der Gehäusefront hat man normalerweise ja ein oder zwei Lüfter, die kalte Luft ins Gehäuse ziehen. Hat man zwei CPU-Lüfter, dann zieht der vordere Lüfter kühle Luft von vorne rein und der hintere Lüfter befördert die warme Luft dann wieder nach hinten raus. Dort wird diese dann im Regelfall noch zusätzlich mit einem Lüfter an der Gehäuserückseite nach draußen befördert. Die Kühllösung der Founders Edition ist extra so aufgebaut, dass der warme Luftstrom der GPU sich quasi mit dem warmen Luftstrom der CPU verbindet und dann vom Gehäuselüfter hinten mit nach draußen befördert wird.

Ich hab mal eine kleine Zeichnung dazu angefertigt:

Anhang anzeigen 1099838

Eigentlich ist das eine ziemlich geniale Kühllösung und für ein klassisches Luftstrom-Design, bei dem rechts von der Gäusevorderseite kalte Luft kommt die nach links durchgeleitet wird zur Rückseite, besser geeignet als alle "klassischen" Lösungen. Hut ab, nvidia. :)

Sorry, vielleicht habe ich irgendwo einen Knoten im Hirn aber wenn ich mir versuche das Ganze räumlich vorzustellen:
Der Lüfter, der den warmen Luftstrom von der GPU nach oben ins Gehäuse drückt sitzt am hinteren Ende der Karte. Je nach Board also bei Position "Slotblech +22-30 cm". Das ist also quasi fast bei der Front des Gehäuses, höchstwahrscheinlich aber am den Slotblechen gegenüber liegenden Ende des Mainboards.
Der CPU-Sockel sitzt natürlich je nach Modell auch an verschiedenen Positionen, im Allgemeinen wird aber möglichst die Distanz zum schnellsten PCIe-Slot und anderen I/O Ports kurz gehalten.
Damit die Luft der GPU hinter dem CPU-Kühler ankommt müsste die CPU aber an der vordersten Kante des Mainboards sitzen.

Bei meinem Modell z. B. passt zwischen Gehäuserückseite und CPU-Kühler aber gerade noch eine flache Hand. So genial ich nVidias Idee auch finde: Aktuell geht mein i7 8700 schon oft auf 70°C (in Games bei sparsamen 30-60 W, einzelne Peaks bis 90 W), da die Graka zuviel vom Luftstrom abknapst. Wenn die Luft durch die Graka käme wäre zwar der allgemeine Durchfluss besser, meine CPU würde aber sehr sicher gegrillt oder?
 
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Ganz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.
 
Ganz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.
einfach 3 140er in Meshify S2 inbound und 2 raus... in spielen liegt bei mir die casetemp bei gerade mal 36c, nur MFS20 kommt auf 37c @250W GPU + 4.2GHz 3900x


These Custom RTX 3080, RTX 3070, RTX 3090 Cards Look AMAZING! - YouTube
< wunderschöne rote-lippen-EVGA ist auch dabei
 
Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.

Wenn es wirklich nochmal 30% sind und Nvidia nicht die Karten nächstes Jahr entwertet wie es nun mit Turing passiert, ist das Geld auch gut angelegt.
Ich hätte den Gap zwischen RTX3070 + 3080 kleiner eingeschätzt.

Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.
Ich hoffe, dass die starken Karten jetzt auch eine leistungsfähige Mittelklasse nach sich ziehen. Mehr als 300€ gebe ich für eine Graka nicht aus, da reicht meine Zeit einfach nicht zu aus. Und die letzten Karten für die diesen Preisbereich gefiehlen mir in den letzten Jahren nciht so wirklich.


500€ wäre auch meine bis dato teuerste Karte. Und es muss nicht immer die teuerste sein. Nur irgendwie wird man von dem Fakt getriggert, dass man die Leistung einer 2080TI steigert. Und das ist einfach unglaublich.

Auf der anderen Seite, hat man in der Vergangenheit von Leuten gehört, die sich zu Release eine 1080TI gekauft haben und lange damit Ruhe hatte, und diese sogar am End of Cycle quasi mit Gewinn noch veräußern konnte, da der Markt teurer wurde. Daher blühte irgendwie so der Gedanke auf, vll. ist mal eine kräftige Investition gar nicht so verkehrt.

Bzgl. des Rams: 8GB ist dann wohl das neue 6GB Desaster?!
Generell finde ich 8 oder 10 nun nicht wenig Ram. Aber man muss sich da wohl an neue Maßstäbe gewöhnen!?

Ich denke auch vll. muss man die 10GB nochmal aus einem anderen Gesichtspunkt sehen: Es ist immerhin schnellerer GDDR6X Ram. Das sind dann nicht nur 2GB Vram mehr, sondern auch insgesamt schnellerer Ram.

Kauft man hingegen eine günstigere Karte, kann man wenn die Super und TI den Markt nächstes Jahr herum stürmen immer nochmal umschwenken - wenn denn dann eine Steigerung auf 16GB anstehen sollte.
Ich denke die Super Karten bekommen 12 und dazwischen kommt nochmal 16GB. AMD wird wahrscheinlich direkt mit 16GB beginnen, AMD ist da sowieso immer großzügiger unterwegs.

Wirklich schwer Prognosen herauszuleiten, wann und was der Beste Kauf ist.
 
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen. Daher gehe ich davon aus, dass die RTX3080Ti ebenfalls sehr viel kosten wird. Vermutlich irgendwas um die 1099-1199$ und ein gutes Stück langsamer als die RTX3090.

Überall gibt's einen Nachteil und das ist Absicht.

Wird wohl genau so sein, aber das macht es umso schwieriger zu wissen, was man kaufen soll.
Ich hätte nicht gedacht, das Ampere so kommen wird. Im Januar habe ich mir eine neue 2060super für 330€ gekauft.
Da war die noch überall für 400€ plus zu haben. Gutes Angebot mit dem besten Bang for Buck in der Turing Reihe imho.

Die Frage ist nun welche Karte wird das unter Ampere sein - ggfs. doch die RTX 3060?
Kauft man günstiger, kann man mitunter auch mal schneller reagieren, mit weniger Verlust beim Widerverkauf.

Bin eigentlich auch gespannt, was Big Navi liefert. Aber Nvidia hat mich auch in der Vergangenheit mal wieder Treibermäßig überzeugt, sodass es wohl dabei bleibt.
Auch wenn das RAM Debakel bei der GTX970 damals echt schon mies war.

Übrigens weiß ich nicht ob man Konsole mit PC so gleichsetzen kann. Auch wenn die Specs viel versprechen.
Bisher liefen auch 6GB Karten auf dem PC gut, und die PS4 meine ich hatte selbst mehr.
Eine Acht-Kern Cpu ist auch nicht mit einer Acht Kern Cpu einfach so gleichzusetzen.
 
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.

Das finde ich auch sehr spannend, da ich Fan von "Open World" games bin. :)

Fände ein RDR2(oder 3) mit RT echt hammer. :D


edit:

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen.

Wird es aber geben. Nennt sich RTX 3070Ti 16GB. :)
(Bisher nur Gerüchte und eine Zufallsinfo eines PC Herstellers, der die Karte schon genannt hat)


edit: Und jetzt fragt nicht wieder nach der Quelle und offizielle, unabhängige Benchmarks dazu ! ;) Die gibt's nicht.

edit2:

Aber hier wurde ja auch bereits darüber spekuliert: Link
 
Zuletzt bearbeitet:
Zurück