Vielen Dank für den Artikel .
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.
Ich frage mich ja ob die RTX3080 sich langfristig mehr lohnt und den Aufpreis ggü. der 3070 rechtfertigt.
Hauptächlich zocke ich auf einem 144hz WQHD IPS Panel, aber wenn 4K geht könnte man ja mal den 4K LG Oled anschließen.
zz.t habe ich noch eine 2060super drin, mit der wqhd super läuft.
Auch ist die Frage, ob es wirklich zu ausverkäufen kommt, bzw. die Preisentwicklung stabil bleibt oder sich nach release vll. doch nochmal erhöht.
Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
Irgendwie lässt mich die ganze Nummer kalt, meine 1080 wird auch die nächsten Jahre noch reichen um mich im mp spiel meiner Wahl wegcheaten zu lassen. Wird wohl ne Playse.
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können
Warum hast Du Dir dann ne 8GB Karte in Form einer RTX 2070 super gekauft. Die stimmt mit deinen Ansprüchen in keinster Weise überein. 3 Jahre-Texturpackete-modden und 8GB...passt nicht.Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können und mir auch 8k Texturpakete in meine Spiele modden können usw.
Breaking News am 14.09.2020 um 15:00 gibts den Test und Vorverkauf der Foundersedition !
bestätigt von Nvidia auf Reddit
Review NDAs for Founders Edition cards lift Sept 14th, 17th for AIB - Source HardwareCanucks Youtube : nvidia
"Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle.."
Das glaub ich auch, daß Nvidia das so kommuniziert, ist ja ein Verkaufsmerkmal und Verteuerungsargument. Die Frage ist halt, kann RT auch ohne spezielle Rechenkerne ausgeführt werden und ja das geht. Bedarf es noch starker softwareseitiger Optimierung, um weniger Ressourcen abzugreifen und werden damit zusätliche RT Spezialkerne überflüßig (das darf natürlich NICHT passieren )? Ja, nur wer nimmt das Geld dafür in die Hand?
Keiner? Weil der Bedarf auch nicht groß genug ist. So haben wir einen künstliche Verteuerung über ein massiv gehyptes Feature (man kann immerhin den Kunden damit triggern), welches noch suboptimal arbeitet. So geht Hardwarekartell.
Ich weiß ja nicht, wie dein Rechner so aufgebaut ist, aber eigentlich kommt der Abluftstrom der GPU genau hinter(!) dem CPU-Kühler an. Normalerweise befestigt man den CPU-Lüfter auf der vorderen Seite und zieht damit Luft von der Gehäusefront in die Lamellen rein. An der Gehäusefront hat man normalerweise ja ein oder zwei Lüfter, die kalte Luft ins Gehäuse ziehen. Hat man zwei CPU-Lüfter, dann zieht der vordere Lüfter kühle Luft von vorne rein und der hintere Lüfter befördert die warme Luft dann wieder nach hinten raus. Dort wird diese dann im Regelfall noch zusätzlich mit einem Lüfter an der Gehäuserückseite nach draußen befördert. Die Kühllösung der Founders Edition ist extra so aufgebaut, dass der warme Luftstrom der GPU sich quasi mit dem warmen Luftstrom der CPU verbindet und dann vom Gehäuselüfter hinten mit nach draußen befördert wird.
Ich hab mal eine kleine Zeichnung dazu angefertigt:
Anhang anzeigen 1099838
Eigentlich ist das eine ziemlich geniale Kühllösung und für ein klassisches Luftstrom-Design, bei dem rechts von der Gäusevorderseite kalte Luft kommt die nach links durchgeleitet wird zur Rückseite, besser geeignet als alle "klassischen" Lösungen. Hut ab, nvidia.
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.
einfach 3 140er in Meshify S2 inbound und 2 raus... in spielen liegt bei mir die casetemp bei gerade mal 36c, nur MFS20 kommt auf 37c @250W GPU + 4.2GHz 3900xGanz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.
Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.
Ich hoffe, dass die starken Karten jetzt auch eine leistungsfähige Mittelklasse nach sich ziehen. Mehr als 300€ gebe ich für eine Graka nicht aus, da reicht meine Zeit einfach nicht zu aus. Und die letzten Karten für die diesen Preisbereich gefiehlen mir in den letzten Jahren nciht so wirklich.
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.
Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen. Daher gehe ich davon aus, dass die RTX3080Ti ebenfalls sehr viel kosten wird. Vermutlich irgendwas um die 1099-1199$ und ein gutes Stück langsamer als die RTX3090.
Überall gibt's einen Nachteil und das ist Absicht.
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.
Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen.