• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch

Wer glaubte, dass Nvidia und die Presse bis zum offiziellen Marktstart der Geforce RTX 3090, RTX 3080 und RTX 3070 schweigen würde, irrt. Bei diesem Grafikkarten-Launch ist alles anders, die Geforce-Macher veranstalten eine Informationsveranstaltung nach der anderen - selbstverständlich virtuell. PCGH lauschte aufmerksam und präsentiert Ihnen alle wichtigen Info-Happen kurz vor dem Start der RTX 3080.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch
 

Pu244

Lötkolbengott/-göttin
PCGH schrieb:
(...)sonderlich viel Marge dürfte bei RTX 3070 und RTX 3080 aber nicht anfallen.

Das sehe ich anders. Früher (bis zur GTX 580) waren 500€ der Preis für die absolut High End Karte und da hat Nvidia nicht schlecht verdient. Heute kostet die RTX 3070 soviel, mit 8GB VRAM, die Nvidia schon 2016 standardmäßig geboten hat. Die RTX 3080 ist noch teurer, davon läßt sich der bessere Kühler ein vielfaches finanzieren. Nvidia dürfte sich wohl weiterhin dumm und dämlich verdienen, man muß sich da keine Sorgen machen.
 

Gurdi

Kokü-Junkie (m/w)
War doch bei Turing auch schon so dass der Launch segmentiert wird damit die Technikhäppchen auch anständig unters Volk kommen.
 

huenni87

Software-Overclocker(in)
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.
 

Scholdarr

Volt-Modder(in)
Schade, dass im Artikel gerade auf die Frage nach dem Speicher nicht näher eingegangen wird. Mich würde schon interessieren, warum man sich bei der 3070 und 3080 auf 8 respektive 10 GB Speicher begrenzt hat. Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...

Die Ampere-Karten sehen echt absolut super aus, aber der recht geringe Speicher ist aus meiner Sicht eher unverständlich. Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können und mir auch 8k Texturpakete in meine Spiele modden können usw.
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Eigentlich dürfte die Luft vom Hecklüfter sofort raus befördert werden, aber das werden Tests zeigen.
 

Pu244

Lötkolbengott/-göttin
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

War doch bisher auch so, wenn man eine Karte hatte, die ihre Luft im Gehäuse verteilt hat, statt sie nach außen zu blasen. Der große Unterschied sind diesmal eben die 350W, dafür dürfte die Wärme vermutlich schneller und gleichmäßiger verteilt werden. Insgesamt vermutlich ein Nullsummenspiel (wenn man das Gehäuse sonst gut durchlüftet.
 

Gurdi

Kokü-Junkie (m/w)
War doch bisher auch so, wenn man eine Karte hatte, die ihre Luft im Gehäuse verteilt hat, statt sie nach außen zu blasen. Der große Unterschied sind diesmal eben die 350W, dafür dürfte die Wärme vermutlich schneller und gleichmäßiger verteilt werden. Insgesamt vermutlich ein Nullsummenspiel (wenn man das Gehäuse sonst gut durchlüftet.

Der ein oder andere wird sich noch umsehen bei der Abwärme.
 

beastyboy79

Software-Overclocker(in)
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Irgendwie wird doch immer mit Luft gekühlt, oder? ;)
Spaß beiseite. Bei ner AIO-Kühlung und oben im Deckel befestigtem Radiator wird, zumindest bei mir, auch warme angesaugt und durch den Radiator gedrückt. Nachteile in der Kühlleistung konnte ich nicht feststellen.

wird es eine 3080Ti geben?

Da drück mal fest die Daumen.
 

-Cryptic-

Software-Overclocker(in)
Ich muss ehrlich zugeben ich war schon seit seeeehr langer Zeit nicht mehr so gehyped über neue Hardware. Da kommt direkt wieder dieses wohlige Kribbeln hoch. Diese enorme Vorfreude auf die 3090... :hail:
Konnte meine 2080ti auch noch zu einem sehr guten Kurs verkaufen, von daher hoffe ich nur noch auf eine brauchbare Verfügbarkeit und eine große Auswahl an Custom-Modellen zu "einigermaßen" benutzerfreundlichen Preisen.
Dat Viech wird richtig geil befürchte ich! :D
 

Mazrim_Taim

BIOS-Overclocker(in)
Schade, dass im Artikel gerade auf die Frage nach dem Speicher nicht näher eingegangen wird.
Mich würde schon interessieren, warum man sich bei der 3070 und 3080 auf 8 respektive 10 GB Speicher begrenzt hat. Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen würde...

Die Ampere-Karten sehen echt absolut super aus, aber der eher geringe Speicher ist aus meiner Sicht eher unverständlich.
Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können und mir auch 8k Texturpakete in meine Spiele modden können usw.

Wird es sicher geben aber eher mit +200€ als 50-100€ Aufpreis :ugly:
 

ChrisMK72

PCGH-Community-Veteran(in)
Hui. Eine menge Text zu später(frühen) Stunde. :)

Unterhaltsam, gut geschrieben.
Danke.

Freue mich schon auf die Benchmarks(eins weiter oben steht ja, wann's los geht) und genaue Checks gerade der Customs.
Obwohl die große 3090 FE ja echt was hat, so als optischer dicker Brocken. :)

Hab aber auch schon eine sehr schöne Custom im Auge, die's höchstwahrscheinlich wird.

Naja ... um halb 2 Morgens sag ich langsam mal besser gute N8 @ all, egal worauf ihr zockt! :D
 

Muxxer

Freizeitschrauber(in)
Ich hoff ja immer noch das ne günstigere Boardpartnerversion von der 3090 auch kommt, mehr als 1500€ inkl Wasserkühler gibts ned, und auch nur weil ich mir ne G2 bestellt hab.
So 1199€ für die 3090 wär a traum und dann noch 150€ für n Waküblock und 30€ für ne Backplate und gut aber ja die hoffnung stirbt zuletzt, und AMD trau ich es erst ende 2021 zu Nvidia in der Liga an zu greifen, die müssen erst mal die Kriegskasse füllen durch CPU-verkäufe, was ich ihnen zu trau ist irgendwas um die Leistung der 3080 +/-15% alles andere würd mich echt überraschen.
 

Scholdarr

Volt-Modder(in)
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Ich weiß ja nicht, wie dein Rechner so aufgebaut ist, aber eigentlich kommt der Abluftstrom der GPU genau hinter(!) dem CPU-Kühler an. Normalerweise befestigt man den CPU-Lüfter auf der vorderen Seite und zieht damit Luft von der Gehäusefront in die Lamellen rein. An der Gehäusefront hat man normalerweise ja ein oder zwei Lüfter, die kalte Luft ins Gehäuse ziehen. Hat man zwei CPU-Lüfter, dann zieht der vordere Lüfter kühle Luft von vorne rein und der hintere Lüfter befördert die warme Luft dann wieder nach hinten raus. Dort wird diese dann im Regelfall noch zusätzlich mit einem Lüfter an der Gehäuserückseite nach draußen befördert. Die Kühllösung der Founders Edition ist extra so aufgebaut, dass der warme Luftstrom der GPU sich quasi mit dem warmen Luftstrom der CPU verbindet und dann vom Gehäuselüfter hinten mit nach draußen befördert wird.

Ich hab mal eine kleine Zeichnung dazu angefertigt:

luefter_RTX_3080.png

Eigentlich ist das eine ziemlich geniale Kühllösung und für ein klassisches Luftstrom-Design, bei dem rechts von der Gäusevorderseite kalte Luft kommt die nach links durchgeleitet wird zur Rückseite, besser geeignet als alle "klassischen" Lösungen. Hut ab, nvidia. :)
 
Zuletzt bearbeitet:

RawMangoJuli

Volt-Modder(in)
neuerdings basiert die 2080Super also auf dem TU102 xD

@Raff: kannst du bestätigen, dass der L2 Cache 6MB groß ist?


auch interessant find ich, dass die ROPs jetzt innerhalb der GPCs sitzen und es jetzt 112 sind beim Vollausbau
 
Zuletzt bearbeitet:

Ganzer

PC-Selbstbauer(in)
@Scholdarr
Guck mal nach wie DEIN Rechner aufgebaut ist. Da wo du glaubt, daß "Kühler" verbaut sind, sind bestimmt nur Lüfter verbaut ;)

@Raff
Wenig überraschend kommt Pascal auf keinen grünen Zweig, sobald Raytracing zum Einsatz kommt, schließlich muss der GPU-Opa alle Berechnungen mit seinen FP32-ALUs beackern. Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle - wir haben derartiges Software-DXR immer wieder ausprobiert und können die Aussage zweifellos mit Performance-Werten untermauern.
Dann find ich das auch ziemlich gut, daß auch niemand auf solche Klötze kommt Soft-DXR zu nutzen und wenn denn schon, man sowas wie in "Neon Noir" machen wird...
 

lenne0815

Software-Overclocker(in)
Irgendwie lässt mich die ganze Nummer kalt, meine 1080 wird auch die nächsten Jahre noch reichen um mich im mp spiel meiner Wahl wegcheaten zu lassen. Wird wohl ne Playse.
 

Olstyle

Moderator
Teammitglied
Vielen Dank für den Artikel :daumen:.
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.
 

solida

Komplett-PC-Aufrüster(in)
Ich frage mich ja ob die RTX3080 sich langfristig mehr lohnt und den Aufpreis ggü. der 3070 rechtfertigt.
Hauptächlich zocke ich auf einem 144hz WQHD IPS Panel, aber wenn 4K geht könnte man ja mal den 4K LG Oled anschließen.

zz.t habe ich noch eine 2060super drin, mit der wqhd super läuft.

Auch ist die Frage, ob es wirklich zu ausverkäufen kommt, bzw. die Preisentwicklung stabil bleibt oder sich nach release vll. doch nochmal erhöht.

Ich spekuliere auf eine Evga 3070/3080 XC3 - sieht wirklich schick aus das design. Kommt die 3070 für 499€ und dadrunter und die Benchs bewahrheiten sich wäre das eigentlich ein no brainer kauf.
699€ dagegen ist - auch in anbetracht der leistung - dann doch nochmal ne andere hausnummer.
 

RawMangoJuli

Volt-Modder(in)
Vielen Dank für den Artikel :daumen:.
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.

:)

NVIDIA RTXGI at 4K in Unreal Engine 4 - YouTube
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Ich frage mich ja ob die RTX3080 sich langfristig mehr lohnt und den Aufpreis ggü. der 3070 rechtfertigt.
Hauptächlich zocke ich auf einem 144hz WQHD IPS Panel, aber wenn 4K geht könnte man ja mal den 4K LG Oled anschließen.

zz.t habe ich noch eine 2060super drin, mit der wqhd super läuft.

Auch ist die Frage, ob es wirklich zu ausverkäufen kommt, bzw. die Preisentwicklung stabil bleibt oder sich nach release vll. doch nochmal erhöht.

Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
 

Basileukum

Software-Overclocker(in)
"Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle.."

Das glaub ich auch, daß Nvidia das so kommuniziert, ist ja ein Verkaufsmerkmal und Verteuerungsargument. Die Frage ist halt, kann RT auch ohne spezielle Rechenkerne ausgeführt werden und ja das geht. Bedarf es noch starker softwareseitiger Optimierung, um weniger Ressourcen abzugreifen und werden damit zusätliche RT Spezialkerne überflüßig (das darf natürlich NICHT passieren :D )? Ja, nur wer nimmt das Geld dafür in die Hand?

Keiner? :D Weil der Bedarf auch nicht groß genug ist. So haben wir einen künstliche Verteuerung über ein massiv gehyptes Feature (man kann immerhin den Kunden damit triggern), welches noch suboptimal arbeitet. So geht Hardwarekartell.
 

mechatronics

Komplett-PC-Aufrüster(in)
Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.
Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.
Ich hoffe, dass die starken Karten jetzt auch eine leistungsfähige Mittelklasse nach sich ziehen. Mehr als 300€ gebe ich für eine Graka nicht aus, da reicht meine Zeit einfach nicht zu aus. Und die letzten Karten für die diesen Preisbereich gefiehlen mir in den letzten Jahren nciht so wirklich.
 

TrueRomance

Lötkolbengott/-göttin
Irgendwie lässt mich die ganze Nummer kalt, meine 1080 wird auch die nächsten Jahre noch reichen um mich im mp spiel meiner Wahl wegcheaten zu lassen. Wird wohl ne Playse.

Puh, leider bemerke ich immer öfter, dass die 1080 zu schwach auf der Brust ist. Zumindest für WQHD. Mittlerweile ist die Karte in der unteren Mittelklasse angekommen.
Ausserdem will man ja auch endlich mal RT und eventuell DLSS testen.
 

rv112

Freizeitschrauber(in)
Hat man schon was zu den Custompreisen gehört? Die 20er Serie war ja bei den Customs im Schnitt rund 100 Euro günstiger. Wird das bei den 30er auch so sein? EVGA hat nur gesagt, man könnte sich an den FE Preisen orientieren.
 

deady1000

Volt-Modder(in)
Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.
Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen. Daher gehe ich davon aus, dass die RTX3080Ti ebenfalls sehr viel kosten wird. Vermutlich irgendwas um die 1099-1199$ und ein gutes Stück langsamer als die RTX3090.

Überall gibt's einen Nachteil und das ist Absicht.
 
R

RNG_AGESA

Guest
so ganz nach windows leistungsindex nimmt man das schwächste glied und zieht genau an dem punkt die leistungsgrenze für den rest.
RT ist wieder das schwächste glied mit gerade mal 40% beschleunigung gegenüber 20xx. > eindeutig ein RT-krüppel, kein GB-krüppel
 
Zuletzt bearbeitet von einem Moderator:

DaHell63

BIOS-Overclocker(in)
Wenn ich mir schone eine Karte für 500€+ zulege, möchte ich damit auch in 3 Jahren noch zocken können und mir auch 8k Texturpakete in meine Spiele modden können usw.
Warum hast Du Dir dann ne 8GB Karte in Form einer RTX 2070 super gekauft. Die stimmt mit deinen Ansprüchen in keinster Weise überein. 3 Jahre-Texturpackete-modden und 8GB...passt nicht.
 

dampflokfreund

Freizeitschrauber(in)
"Diese Aufgabe, so Nvidia, lasse sich ohne spezielle Rechenwerke kaum parallelisieren, sodass die Auslastung eines Shader-Clusters desaströs ausfalle.."

Das glaub ich auch, daß Nvidia das so kommuniziert, ist ja ein Verkaufsmerkmal und Verteuerungsargument. Die Frage ist halt, kann RT auch ohne spezielle Rechenkerne ausgeführt werden und ja das geht. Bedarf es noch starker softwareseitiger Optimierung, um weniger Ressourcen abzugreifen und werden damit zusätliche RT Spezialkerne überflüßig (das darf natürlich NICHT passieren :D )? Ja, nur wer nimmt das Geld dafür in die Hand?

Keiner? :D Weil der Bedarf auch nicht groß genug ist. So haben wir einen künstliche Verteuerung über ein massiv gehyptes Feature (man kann immerhin den Kunden damit triggern), welches noch suboptimal arbeitet. So geht Hardwarekartell.

Überflüssig ist da gar nichts. Wenn leichtes RT schon auf einer nicht-RT beschleunigten Karte gut läuft, werden RTX Karten nochmals deutlich schneller laufen.

Langfristig gesehen wäre das sogar ein Vorteil. Wenn leichtes RT Raster-Effekte ersetzt, dann wäre die generelle Spiele-Leistung von RTX Karten deutlich höher als Karten ohne RT Beschleunigung. So wird es wohl auch kommen, RTXGI ist da ein guter Startpunkt.
 

BlubberLord

Komplett-PC-Aufrüster(in)
Ich weiß ja nicht, wie dein Rechner so aufgebaut ist, aber eigentlich kommt der Abluftstrom der GPU genau hinter(!) dem CPU-Kühler an. Normalerweise befestigt man den CPU-Lüfter auf der vorderen Seite und zieht damit Luft von der Gehäusefront in die Lamellen rein. An der Gehäusefront hat man normalerweise ja ein oder zwei Lüfter, die kalte Luft ins Gehäuse ziehen. Hat man zwei CPU-Lüfter, dann zieht der vordere Lüfter kühle Luft von vorne rein und der hintere Lüfter befördert die warme Luft dann wieder nach hinten raus. Dort wird diese dann im Regelfall noch zusätzlich mit einem Lüfter an der Gehäuserückseite nach draußen befördert. Die Kühllösung der Founders Edition ist extra so aufgebaut, dass der warme Luftstrom der GPU sich quasi mit dem warmen Luftstrom der CPU verbindet und dann vom Gehäuselüfter hinten mit nach draußen befördert wird.

Ich hab mal eine kleine Zeichnung dazu angefertigt:

Anhang anzeigen 1099838

Eigentlich ist das eine ziemlich geniale Kühllösung und für ein klassisches Luftstrom-Design, bei dem rechts von der Gäusevorderseite kalte Luft kommt die nach links durchgeleitet wird zur Rückseite, besser geeignet als alle "klassischen" Lösungen. Hut ab, nvidia. :)

Sorry, vielleicht habe ich irgendwo einen Knoten im Hirn aber wenn ich mir versuche das Ganze räumlich vorzustellen:
Der Lüfter, der den warmen Luftstrom von der GPU nach oben ins Gehäuse drückt sitzt am hinteren Ende der Karte. Je nach Board also bei Position "Slotblech +22-30 cm". Das ist also quasi fast bei der Front des Gehäuses, höchstwahrscheinlich aber am den Slotblechen gegenüber liegenden Ende des Mainboards.
Der CPU-Sockel sitzt natürlich je nach Modell auch an verschiedenen Positionen, im Allgemeinen wird aber möglichst die Distanz zum schnellsten PCIe-Slot und anderen I/O Ports kurz gehalten.
Damit die Luft der GPU hinter dem CPU-Kühler ankommt müsste die CPU aber an der vordersten Kante des Mainboards sitzen.

Bei meinem Modell z. B. passt zwischen Gehäuserückseite und CPU-Kühler aber gerade noch eine flache Hand. So genial ich nVidias Idee auch finde: Aktuell geht mein i7 8700 schon oft auf 70°C (in Games bei sparsamen 30-60 W, einzelne Peaks bis 90 W), da die Graka zuviel vom Luftstrom abknapst. Wenn die Luft durch die Graka käme wäre zwar der allgemeine Durchfluss besser, meine CPU würde aber sehr sicher gegrillt oder?
 

IronAngel

BIOS-Overclocker(in)
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Ganz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.
 
R

RNG_AGESA

Guest
Ganz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.
einfach 3 140er in Meshify S2 inbound und 2 raus... in spielen liegt bei mir die casetemp bei gerade mal 36c, nur MFS20 kommt auf 37c @250W GPU + 4.2GHz 3900x


These Custom RTX 3080, RTX 3070, RTX 3090 Cards Look AMAZING! - YouTube
< wunderschöne rote-lippen-EVGA ist auch dabei
 

solida

Komplett-PC-Aufrüster(in)
Ich finde die 200€ Aufpreis sind hardware und leistungsmäßig gut hinterlegt. Ich bin eher verwunder über das geringe GAP, man bekommt immerhin 2 GB mehr Vram, nen fetteren Kühler und geschmeidige 30-50% Mehrleistung.

Wenn es wirklich nochmal 30% sind und Nvidia nicht die Karten nächstes Jahr entwertet wie es nun mit Turing passiert, ist das Geld auch gut angelegt.
Ich hätte den Gap zwischen RTX3070 + 3080 kleiner eingeschätzt.

Die Frage ist, wie groß die Mehrleistung in 4K längerfristig wirklich ist. Ich finde beide Karten hätten ein wenig mehr VRAM gebrauchen können. Gerade wenn man sich anschaut wie viel die neuen Konsolen davon haben werden, bin ich mir nicht sicher, wie lange die 10Gb reichen. Man muss die Einstellungen im Spiel am Ende so wählen, dass der maximale Speicherverbrauch irgendwo zwischen 8Gb und 10 Gb liegt, dann wird die 3080 Leistungsmäßig natürlich davon ziehen.
Ich hoffe, dass die starken Karten jetzt auch eine leistungsfähige Mittelklasse nach sich ziehen. Mehr als 300€ gebe ich für eine Graka nicht aus, da reicht meine Zeit einfach nicht zu aus. Und die letzten Karten für die diesen Preisbereich gefiehlen mir in den letzten Jahren nciht so wirklich.


500€ wäre auch meine bis dato teuerste Karte. Und es muss nicht immer die teuerste sein. Nur irgendwie wird man von dem Fakt getriggert, dass man die Leistung einer 2080TI steigert. Und das ist einfach unglaublich.

Auf der anderen Seite, hat man in der Vergangenheit von Leuten gehört, die sich zu Release eine 1080TI gekauft haben und lange damit Ruhe hatte, und diese sogar am End of Cycle quasi mit Gewinn noch veräußern konnte, da der Markt teurer wurde. Daher blühte irgendwie so der Gedanke auf, vll. ist mal eine kräftige Investition gar nicht so verkehrt.

Bzgl. des Rams: 8GB ist dann wohl das neue 6GB Desaster?!
Generell finde ich 8 oder 10 nun nicht wenig Ram. Aber man muss sich da wohl an neue Maßstäbe gewöhnen!?

Ich denke auch vll. muss man die 10GB nochmal aus einem anderen Gesichtspunkt sehen: Es ist immerhin schnellerer GDDR6X Ram. Das sind dann nicht nur 2GB Vram mehr, sondern auch insgesamt schnellerer Ram.

Kauft man hingegen eine günstigere Karte, kann man wenn die Super und TI den Markt nächstes Jahr herum stürmen immer nochmal umschwenken - wenn denn dann eine Steigerung auf 16GB anstehen sollte.
Ich denke die Super Karten bekommen 12 und dazwischen kommt nochmal 16GB. AMD wird wahrscheinlich direkt mit 16GB beginnen, AMD ist da sowieso immer großzügiger unterwegs.

Wirklich schwer Prognosen herauszuleiten, wann und was der Beste Kauf ist.
 

solida

Komplett-PC-Aufrüster(in)
Das ist beabsichtigt und genau was Nvidia erreichen will. Die wissen das genau.
Und du lieferst auch direkt die Begründung. Nvidia muss verhindern, dass die Leute nach dem Kauf einer Karte für 499€/699€ erst nach 3 Jahren erneut kaufen. Daher bieten sie die günstigen Karten als Speicherkrüppel an. Hier müssen die Kunden bald wieder aufrüsten. Alternativ kann man sich eine extrem teure Grafikkarte mit ausreichend Speicher kaufen. Hier bezahlt man allerdings mehr das Doppelte.

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen. Daher gehe ich davon aus, dass die RTX3080Ti ebenfalls sehr viel kosten wird. Vermutlich irgendwas um die 1099-1199$ und ein gutes Stück langsamer als die RTX3090.

Überall gibt's einen Nachteil und das ist Absicht.

Wird wohl genau so sein, aber das macht es umso schwieriger zu wissen, was man kaufen soll.
Ich hätte nicht gedacht, das Ampere so kommen wird. Im Januar habe ich mir eine neue 2060super für 330€ gekauft.
Da war die noch überall für 400€ plus zu haben. Gutes Angebot mit dem besten Bang for Buck in der Turing Reihe imho.

Die Frage ist nun welche Karte wird das unter Ampere sein - ggfs. doch die RTX 3060?
Kauft man günstiger, kann man mitunter auch mal schneller reagieren, mit weniger Verlust beim Widerverkauf.

Bin eigentlich auch gespannt, was Big Navi liefert. Aber Nvidia hat mich auch in der Vergangenheit mal wieder Treibermäßig überzeugt, sodass es wohl dabei bleibt.
Auch wenn das RAM Debakel bei der GTX970 damals echt schon mies war.

Übrigens weiß ich nicht ob man Konsole mit PC so gleichsetzen kann. Auch wenn die Specs viel versprechen.
Bisher liefen auch 6GB Karten auf dem PC gut, und die PS4 meine ich hatte selbst mehr.
Eine Acht-Kern Cpu ist auch nicht mit einer Acht Kern Cpu einfach so gleichzusetzen.
 

ChrisMK72

PCGH-Community-Veteran(in)
RTXGI finde ich besonders spannend. Wenn ich das richtig verstehe ist das quasi LowRes Raytracing um eine Rasterizer Global illumination mit Zusatzinfos zu versorgen. Das klingt nach einer Variante wie man die ja doch noch (für pures RT) etwas schwachen RT Einheiten endlich dafür benutzen kann wirklich das ganze Bild in hoher Auflösung besser zu beleuchten.

Das finde ich auch sehr spannend, da ich Fan von "Open World" games bin. :)

Fände ein RDR2(oder 3) mit RT echt hammer. :D


edit:

Und eine Grafikkarte 'dazwischen', sprich mit 16GB VRAM und für einem etwas höheren Preis darf es eigentlich nicht geben, denn sonst kaufen die Leute ja das 'dicke' Modell ja nicht mehr. Außerdem wären auch 16GB viel zu viel um die Leute gehen zu lassen, denn das würde auch reichen um 3-4 Jahre die Kurve zu kratzen.

Wird es aber geben. Nennt sich RTX 3070Ti 16GB. :)
(Bisher nur Gerüchte und eine Zufallsinfo eines PC Herstellers, der die Karte schon genannt hat)


edit: Und jetzt fragt nicht wieder nach der Quelle und offizielle, unabhängige Benchmarks dazu ! ;) Die gibt's nicht.

edit2:

Aber hier wurde ja auch bereits darüber spekuliert: Link
 
Zuletzt bearbeitet:
Oben Unten