• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 30 Info-Bombe: Details zur Ampere-Architektur, Kühlung und Leistung vor dem Launch

deady1000

Volt-Modder(in)
Ich werde wohl nicht die 3-6 Monate [könnte durchaus bis März dauern] auf die RTX3080Ti warten, aus folgenden Gründen:

Viele machen jetzt einen auf 'Big-Brain', lassen die RTX3080 mit der niedrigen Speicherausstattung und die RTX3090 mit dem hohen Preis liegen, in der Hoffnung, dass die RTX3080Ti mit großzügigem Speicher und moderatem Preis kommt. Das ist allerdings wieder genau das was Nvidia einkalkuliert und sie wissen genau, wie sie sich daraus einen Vorteil verschaffen können.

Ich hab auch schon bei der RTX3090 voll ins schwarze getroffen und lehne mich nochmal aus dem Fenster:
Die RTX3080Ti (evtl Super?) wird sehr teuer, wahrscheinlich 1199$, außerdem nicht bedeutend schneller als die RTX3080(10GB), damit der Abstand zur RTX3090 gewahrt bleibt und ein Release wird wohl auch eher im März zu erwarten sein. Paper-Launch wahrscheinlich zeitgleich mit BigNavi, damit die Leute was zum Nachdenken bekommen, aber kein Hard-Launch. Man wird versuchen es ein wenig nach hinten zu ziehen.
Nvidia wird uns hier keine 999$-Karte mit 20GB Speicher zuwerfen, die nahezu RTX3090-Leistung erreicht und viele damit für 3-4 Jahre glücklich machen würde. Sind Wunschträume.

Das werden sie zu verhindern wissen.
Es gilt wie immer: Leistung zurückhalten oder Preisgestaltung bis zur Kotzgrenze ausreizen. :daumen:
Daher RTX3090 und gut ist. Das Ding wird die Krone jetzt eh für gut 2 Jahre behalten. Darüber kann's nur ne Titan geben.
 

ChrisMK72

PCGH-Community-Veteran(in)
Der 3080 mit mehr Speicher(Ti/Super) soll doch 20 GB bekommen.
Die 16GB Version wird die 3070Ti.

Und diese wird bestimmt auch keine 1000+€ kosten.
Aber natürlich schon weiter weg von der Leistung der sauteuren 3090 bleiben.
 

deady1000

Volt-Modder(in)
Ja RTX3070 mit 16GB, aber es bleibt eine RTX3070.
Die hat ja weit weniger Leistung als die RTX3080 und RTX3090, wenn auch, verglichen mit Turing, viel.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Daher RTX3090 und gut ist. Das Ding wird die Krone jetzt eh für gut 2 Jahre behalten. Darüber kann's nur ne Titan geben.

Ich bin da nicht so sicher, was meinen Enthusiasmus etwas bremst. Die RTX 3090 bietet keinen GPU-Vollausbau: Geschenkt - den bot die erste Titan Anfang 2013 auch nicht. Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Klar, die 3090 wird dann immer noch in den Top 3 herumschwirren, daneben aber wie ein Säufer aussehen. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen. Es kann natürlich auch sein, dass Nvidia 7 nm (in diversen Farben und Formen) für die Gaming-Chips überspringt und 2022 direkt auf 5 nm geht. Wer weiß das schon ...

MfG
Raff
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Bei Fermi war's ja nur ein Metal-Spin, um die gemeinen Leckströme einzudämmen, IIRC. Wow, das ist schon zehn Jahre her. :wow:

Bei Ampere besteht die Möglichkeit, das Ding wirklich und richtig effektiv zu shrinken. Die Frage ist, ob Nvidia diesen Portierungsaufwand betreibt ... oder 2021 lediglich "Kicker" wie die RTX-20-Super-Karten bringt, diesmal mit mehr Speicher.

MfG
Raff
 

Blackout27

Volt-Modder(in)
Verstehe ich das richtig, das die 3080 FE so laut/leise ihren Dienst verrichten wird wie die 2080 FE? :) müsste mal schauen wieviel Sone die 2080 FE hatte. Klingt aber ganz gut auch wenn mich der 3090 Kühler mehr reizt ^^

Edit :

Laut PCGH Test unter 2 Sone. Dazu noch etwas UV und die 3080 (mit 20GB) wird in der FE für mich der No Brainer :)
 

deady1000

Volt-Modder(in)
Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen.
Puh, ja schon, aber die Frage ist, ob sich die lange Wartezeit lohnt. Ich brauche schnell (jetzt sofort) Mehrleistung und ein weiteres Jahr will ich nicht warten. Sicherlich wird Nvidia demnächst durch Fertigungsverbesserung und Architekturverkleinerung wieder die Effizienz steigern und es stimmt, dass Ampere dann im Vergleich sehr durstig aussehen wird (sehen sie ja jetzt schon). Ähnlich war es bei der GTX980Ti (Maxwell) und dann der GTX1070/GTX1080 (Pascal). Da sah eine übertaktete GTX980Ti auch wie ein Loch aus und wurde gleichzeitig überholt. Was du sagst macht auf jeden Fall Sinn und könnte so kommen. Aber das ist alles noch recht lange hin und Ampere vor dem Release schon abzuschreiben halte ich für unangebracht. Abgesehen davon kann es passieren, dass BigNavi langsamer wird als viele hoffen und dann wird Nvidia sein Pulver nicht verschießen wollen. EUV und 7-5nm kann man dann ganz entspannt in 2 Jahren zu Hopper bringen und dann ist diese Generation auch schon mehr oder weniger in trockenen Tüchern.
 

hoffgang

BIOS-Overclocker(in)
Ich bin da nicht so sicher, was meinen Enthusiasmus etwas bremst. Die RTX 3090 bietet keinen GPU-Vollausbau: Geschenkt - den bot die erste Titan Anfang 2013 auch nicht. Allerdings bekommen wir anscheinend nur "B-Ware"-Fertigung ohne modernste Kniffe (Samsung statt TSMC), welche AMD vermutlich und hoffentlich in Anspruch nimmt. Einige Layer mit EUV-Belichtung könnten gewaltige Unterschiede machen. Ergo kann es sein, dass wir in einem Jahr schon einen echten Refresh von Ampere sehen, der dann doch bei TSMC gefertigt wird. Klar, die 3090 wird dann immer noch in den Top 3 herumschwirren, daneben aber wie ein Säufer aussehen. Ein weiteres Jahr später gibt's dann Hopper, die echte Next-Gen. Es kann natürlich auch sein, dass Nvidia 7 nm (in diversen Farben und Formen) für die Gaming-Chips überspringt und 2022 direkt auf 5 nm geht. Wer weiß das schon ...

MfG
Raff

Du beschreibst wunderbar die Möglichkeiten. Aktuell kann man sich in den vielen Optionen verlieren - persönlich denke ich, wer versucht den absolut besten Deal zu bekommen wird ggf. lange Zeit garkeine GPU kaufen.
AMDs Release steht noch aus, ob eine 3080ti überhaupt kommt, oder nur eine 3080 mit doppelt soviel Vram ist komplett offen. Wenn letztere, wie von deady angesprochen, wirklich nur eine 3080 mit mehr Vram sein sollte, dann zahlt man einen Aufpreis, bekommt aber halt auch nur den Vram obendrauf.

Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?
 

Mydgard

PC-Selbstbauer(in)
War doch bei Turing auch schon so dass der Launch segmentiert wird damit die Technikhäppchen auch anständig unters Volk kommen.

Dürfte imho eher daran liegen das sich zwangsläufig die 3070 am meisten verkaufen wird da sie am günstigsten ist, somit braucht man da die größten Stückzahlen und somit einfach ca. einen Monat länger Zeit genügend Chips herzustellen.

Das die 3090 eine Woche später kommt, dürfte primär Marketing sein, die 3090 kostet mehr als das doppelte, wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben, daher dürftes im Interesse nvidias liegen, das sich alle erstmal auf die 3080 Fokussieren.
 

Mydgard

PC-Selbstbauer(in)
Schade, dass im Artikel gerade auf die Frage nach dem Speicher nicht näher eingegangen wird. Mich würde schon interessieren, warum man sich bei der 3070 und 3080 auf 8 respektive 10 GB Speicher begrenzt hat. Ich würde gerne 50-100€ mehr zahlen, wenn ich dafür z.B. 12 respektive 16 GB Speicher bekommen könnte...

Wurde imho in einem der Videos erklärt, es gibt GDDRX6 Speicher bisher erst in 1 GB Bausteinen ... ergo bräuchte man für 16 oder 20 GB einfach mehr Platz ... nicht ohne Grund ist die 3090 größer als die 3080 ... das dürfte quasi ausnahmslos auf die 24 Speicherbausteine zurückzuführen sein. Sobald dann irgendwann GDDRX6 Speicherbausteine mit 2 GB verfügbar sind, kann man immer noch eine Super (oder TI) nachreichen mit etwas höheren Taktraten und doppeltem Speicher, da man dann ja kein größeres PCB benötigt.

Dürften aber dann eher 200+ € Aufpreis sein ... Speicher ist zwar nicht mega teuer, aber GDDRX6 Speicher gibt es nur von Micron, die haben also ein Monopol darauf und können somit die Preise hoch halten.
 

ChrisMK72

PCGH-Community-Veteran(in)
Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?

Lief nicht das Gerücht rum, dass es am 14. so weit sein soll ?
Evtl. ab 17. für die Customs ?
Gab's da nicht n Video von den Kanadiern zu ?

Ich mein ich hätt da was gelesen/gesehen.

Kann ja jemand vielleicht mal bestätigen, denn Raff darf sicher nicht sagen, wann das NDA fällt, weil's wahrscheinlich Teil des NDA ist.

Und ja, die ganzen Möglichkeiten sind schon umfangreich diesmal.

Am besten ist, man weiß genau was man will und wann. :) Dann hält sich die Verwirrung in Grenzen.
(Ein weiteres Custom Modell gefällt mir auch ganz gut(massiv! :cool:), wo ich noch die Tests abwarte, aber dann wird bestellt. :D)
 

Xaphyr

Software-Overclocker(in)
Ab wann dürft ihr denn Ampere testen, bzw. die Tests veröffentlichen? Noch vor dem 24.09.?
Diese Frage kommt immer wieder auf in den letzten Tagen, wieso geht keiner darauf ein? Fällt es jetzt schon unter NDA ab wann Tests veröffentlicht werden dürfen?


edit: Da war Chris einen Ticken schneller. ^^
 

deady1000

Volt-Modder(in)
Die 3090 kostet mehr als das doppelte, wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben, daher dürftes im Interesse nvidias liegen, das sich alle erstmal auf die 3080 Fokussieren.
Ich seh's anders herum. Die verteilen das ganz gut.
RTX2070 für die breite Masse, als Konkurrenz für BigNavi.
RTX3080 für die, die eine ordentliche Mehrleistung, abgesehen vom VRAM, gegenüber Turing wollen, allerdings nicht so viel Kohle ausgeben wollen.
RTX3090 als Flaggschiff mit voller Leistung, extrem viel VRAM, für Leute, die bereit sind dafür zu bezahlen.

- 20% mehr Kerne für je Shader, Tensor und CUDA
- 20% schnellerer Memory-Bus
- 240% VRAM
[- vermutlich besseres Binning]

Denke der Leistungsunterschied zwischen RTX3080 und RTX3090 dürfte, unter einer VRAM-Auslastung von weniger als 10GB, bei 20-30% liegen - ansonsten weit höher.
Allein durch die höheren Kernzahlen in allen Bereichen und durch den schneller angebundenen Speicher müsste die RTX3090 mehr als 20% Mehrleistung bieten.
Die 3090 [...] wird aber wahrscheinlich nur 10-20% mehr Leistung als die 3080 haben
Eher 25%-30%. Rein logisch betrachtet kann die nicht nur 10-20% mehr leisten.

vgl.jpg

Hab's mal aufgemalt.
 
Zuletzt bearbeitet:

Scholdarr

Volt-Modder(in)
Warum hast Du Dir dann ne 8GB Karte in Form einer RTX 2070 super gekauft. Die stimmt mit deinen Ansprüchen in keinster Weise überein. 3 Jahre-Texturpackete-modden und 8GB...passt nicht.

War eine Brückeninvestition, da dieses Jahr bisher eh nicht viele AAA+ Spiele erschienen sind und ich auf Ampere gewartet habe. Dass die (3070 und 3080) Ampere-Karten jetzt aber gar nicht oder nur kaum mehr Videospeicher haben, hatte ich so tatsächlich nicht erwartet.
 
Zuletzt bearbeitet:

Scholdarr

Volt-Modder(in)
Sorry, vielleicht habe ich irgendwo einen Knoten im Hirn aber wenn ich mir versuche das Ganze räumlich vorzustellen:
Der Lüfter, der den warmen Luftstrom von der GPU nach oben ins Gehäuse drückt sitzt am hinteren Ende der Karte. Je nach Board also bei Position "Slotblech +22-30 cm". Das ist also quasi fast bei der Front des Gehäuses, höchstwahrscheinlich aber am den Slotblechen gegenüber liegenden Ende des Mainboards.
Der CPU-Sockel sitzt natürlich je nach Modell auch an verschiedenen Positionen, im Allgemeinen wird aber möglichst die Distanz zum schnellsten PCIe-Slot und anderen I/O Ports kurz gehalten.
Damit die Luft der GPU hinter dem CPU-Kühler ankommt müsste die CPU aber an der vordersten Kante des Mainboards sitzen.

Bei meinem Modell z. B. passt zwischen Gehäuserückseite und CPU-Kühler aber gerade noch eine flache Hand. So genial ich nVidias Idee auch finde: Aktuell geht mein i7 8700 schon oft auf 70°C (in Games bei sparsamen 30-60 W, einzelne Peaks bis 90 W), da die Graka zuviel vom Luftstrom abknapst. Wenn die Luft durch die Graka käme wäre zwar der allgemeine Durchfluss besser, meine CPU würde aber sehr sicher gegrillt oder?

Du scheinst dabei aber zu vergessen, dass bei quasi allen aktiv luftgekühlten Grafikkarten, die aktuell erhältlich sind, Lüfter die Abwärme auf der ganzen Oberseite der GPU nach "oben" blasen Richtung CPU. Sprich, hier wird sowohl vor als auch hinter den CPU Kühler warme Abluft geblasen. Vor diesem Hintergrund ist das nvidia Design auf jeden Fall eine Verbesserung, weil hier versucht wird, nur möglichst weit hinten warme Abluft zu produzieren, während gleichzeitig aktiv kältere Luft von unten zur Karte geführt wird. Das Lüfterkonzept ist somit positiv sowohl für die Kühlung der GPU als auch der CPU, verglichen zu den aktuell üblichen, luftgekühlten Grafikkarten.

Bezüglich der Position der CPU wäre es thermisch tatsächlich besser, wenn man die weiter nach vorne (Gehäusetechnisch) verlegen würde und z.B. die Position der CPU und der RAM-Riegel switchen würde. Dann müsste der CPU-Kühler tatsächlich nicht noch die ganez warme Abluft der GPU komplett verarbeiten bzw. wegschaufeln müssten. Dass das aktuell nicht gemacht wird im üblichen Mainboard-Design, wird aber wohl seine Gründe haben.
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Hab das Video, welches jemand anders hier im Forum schon gepostet hatte(ich hab's nicht gefunden ;) ) , mal rausgekramt:

Launch

Keine Pre-Orders.

PS: Mehr weiß ich nich.
 
Zuletzt bearbeitet:
R

RNG_AGESA

Guest
3080FE ist mickrig mit 2slots und gerade mal 28,5cm
3090FE ist mit 3slots deutlich beeindruckender
3080 Aorus hat ganze 4SLOTS PogChamp
 

ChrisMK72

PCGH-Community-Veteran(in)
3080 Aorus hat ganze 4SLOTS PogChamp

Ja, die is Nice ! :D Mal gespannt was die Tests zu den Temps sagen. :)
Hat die nicht sogar nur 2x 8Pin(also genauer gesagt 2x 6+2 pin ;) ) ?
Sollte vielleicht sogar nicht mal so schlucken, was auch kühlere Temps andeuten könnte. Aber mal schaun.

PS: Ich mag ja so "Brocken".

Is die 3090 von Aorus auch so ??? Gleich mal checken.


edit:

Die hat scheinbar auch nur 2x 8pin. :daumen:
Und ne relativ nette Anzeige. Find ich gut !

1.jpg

Kommt in die nähere Auswahl mit rein.

3 Jahre Garantie mit Verlängerungsmöglichkeit für "ausgewählte Modelle" ? Mal checken, ob die dann auch dabei is. :)
Das wäre allerdings dann schon n dickes Plus in meinen Augen.
5 Jahre Garantie wäre n Kaufkriterium für mich.
Mal lesen ...


edit:

Häh ?

GIGABYTE gewährt standardmäßig 3 Jahre Garantie ab Herstellungsdatum. Die `Garantie gilt ausschließlich für Fachhändler. Mögliche Garantieansprüche müssen vom Endkunden immer gegenüber Ihrem Fachhändler, bei dem das Produkt erworben wurde, geltend gemacht werden.

Nur für Fachhändler ?
Ab "Herstellungsdatum" ? Woher soll ich denn wissen, wann die "hergestellt" wurde. Steht das auf der Karte ? Und ich muss mich dann an den Verkäufer wenden ?

Hm ... ich seh mich schon mal nach nem Verkäufer mit gutem Ruf und guten Erfahrungen was Kulanz angeht um.
(Edit: Meine letzte Karte war n Gebrauchtkauf und sonst hab ich nie Service gebraucht, da meine GPUs ne kaputt gingen, bevor sie wieder weg waren)

Da macht es sich doch bezahlt, wenn man in der Vergangenheit positiv aufgefallen is.
Ich mach ja keine Werbung, da ich unbeeinflussbar bin, aber ich meine in der Vergangenheit wäre Caseking und Alternate positiv aus der Masse herausgestochen, was Kulanz anging, bei bestimmten Problemen, mit GPUs.
Wenn was gut is, soll man das ja auch ruhig sagen dürfen, find ich.

Sind die immer noch so gut drauf ?

Gab's da nicht damals Theater mit irgend ner Karte ? War das die GTX 970 oder so ?
Ich mein da wären die beiden Händler positiv aufgefallen, was Kulanz angeht ...

Oder war das was Anderes ? Wisst ihr das noch ?

Is ja n "paar Tage" her und ich werd auch nicht jünger. ;)

edit2: Nicht, dass ihr denkt ich wäre "Influencer" oder sowas. Ich merk mir nur manchmal Sachen und ich mag das Community-Prinzip auch z.B. der Steam Reviews, wo Sachen gnadenlos niedergemacht werden, wenn sie schlecht sind :devil: , aber auf der anderen Seite auch Lob kriegt, wem Lob gebührt.
Wie soll man sonst wissen was gut is !?
Nur um's noch mal ausdrücklich zu sagen: Ich arbeite in keinerlei hardware Bereich und ich kenn auch persönlich niemanden von Caseking, oder Alternate, noch krieg ich da irgendwie Geld, oder hab n Youtubekanal(hab keinen mit irgendwas).
Das einzige was ich in meinem Youtube hab, is glaub ich ne nicht öffentliche Playlist von Musik. ;)

Bin ein einfacher, alter, Zocker ! :D :cool:


edit3: bei mir gibt's nix spannendes. Wech bleiben ! ;)

2.jpg

Hab auch nich vor, das jemals zu ändern.


edit4:

Agesa ??? Bist du Influencer ? :D
Du arbeitest doch nicht für Gigabyte ? ;)
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Ich würde eher sagen, dass das das gleiche Foto ist. Warte mal auf den Release der Karten, dann weißt du es genau.

Hab mal auf deren Seite geforscht.
Bei dem etwas günstiger aussehendem Modell sind genauere Spezifikationen bei und dort steht bei der 3090 2x8Pin Anschluss.
Desweiteren noch sehr interessant: 4 jahre Garantie, bei Registrierung ! :) Das is schon mal echt nice.

Wie heißt die ? Einfach "Gaming OC".
Sehr spannend ! Bin echt auf die genaueren tests was Temps/Lautstärke angeht gespannt. Könnten die nich langsam schon mal kommen ? :D
Ok ... bin zu ungeduldig. Jetzt is gut. Keine weiteren Kommentare bis zum Fall des NDA, weil's eh nix bringt bunte Bildchen anzustarren ! ;) Ich brauche PCGH Tests/Checks.

Willi ! Kannst du die nicht schon mal auseinanderpflücken und schauen ob da so eine Quatsch Plastikbackplate, oder in Folie eingeschweisste Heatpipes drauf sind ? :D
Deseiteren Lautstärke und Temps bitte ! :)

Ok, over and out.
Hab zu viel Kaffee+Hype. :banane:


PS: Erleb' ich ja aber auch nur 1x alle paar Jahre so. Gehört dazu.
 

huenni87

Software-Overclocker(in)
Ich weiß ja nicht, wie dein Rechner so aufgebaut ist, aber eigentlich kommt der Abluftstrom der GPU genau hinter(!) dem CPU-Kühler an. Normalerweise befestigt man den CPU-Lüfter auf der vorderen Seite und zieht damit Luft von der Gehäusefront in die Lamellen rein. An der Gehäusefront hat man normalerweise ja ein oder zwei Lüfter, die kalte Luft ins Gehäuse ziehen. Hat man zwei CPU-Lüfter, dann zieht der vordere Lüfter kühle Luft von vorne rein und der hintere Lüfter befördert die warme Luft dann wieder nach hinten raus. Dort wird diese dann im Regelfall noch zusätzlich mit einem Lüfter an der Gehäuserückseite nach draußen befördert. Die Kühllösung der Founders Edition ist extra so aufgebaut, dass der warme Luftstrom der GPU sich quasi mit dem warmen Luftstrom der CPU verbindet und dann vom Gehäuselüfter hinten mit nach draußen befördert wird.

Ich hab mal eine kleine Zeichnung dazu angefertigt:

Anhang anzeigen 1099838

Eigentlich ist das eine ziemlich geniale Kühllösung und für ein klassisches Luftstrom-Design, bei dem rechts von der Gäusevorderseite kalte Luft kommt die nach links durchgeleitet wird zur Rückseite, besser geeignet als alle "klassischen" Lösungen. Hut ab, nvidia. :)

Kommt auf die Länge der Karte an. Wenn ich da in mein Gehäuße gucke und mir mal die Länge der aktuellen GPU da drin anschaue würde der Lüfter die Luft zum großen teil vor dem CPU Kühler rausblasen und nicht darunter. Dabei wird die Luft eben "konzentriert" in Richtung Kühler der CPU abgeleitet. Das ist sicherlich für die Kühlung der GPU besser, mich würde halt interessieren obs auch Auswirkungen auf die CPU hat.

Es haben ja schon viele auf meinen Beitrag geantwortet und natürlich glaube ich auch nicht das die CPU deswegen plötzlich am schmelzen ist. Dennoch würde mich ein Test da interessieren. Alles andere sind nur Spekulatius und Paint. ;)

Ganz ehrlich, das ist bei jeden GPU Kühler so. Entweder wird es verwirbelt oder landet schneller bei der CPU. Ich habe so ein Modell, also kurzes PCB und 3 Lüfter drauf. Die GPU kann dadurch recht kühl sein. Die CPU wird ja so oder so etwas wärmer. Ist aber kein Problem. Bei der Karte ist eine gute Gehäuse Belüftung Pflicht. Also würde ich das 2 x 2 Lüfter verbauen.

Ja stimmt schon. Aber die Luft wird eben verwirbelt, verteilt sich im Gehäuse und wird abgeführt. Durch den Lüfter hinten in der Karte wird sie aber (wie ich befürchte) konzentriert auf einen möglichen CPU Towerkühler geleitet.

Ich selbst nutze eine Aio und habe auch nicht vor mir eine 3000er Serie zu holen, schon gar keine FE. Dennoch fände ich eben so einen Test durchaus mal interessant.
 
Zuletzt bearbeitet:
E

eclipso

Guest
Mitzieheffekte bis ins Extreme, um am Hintergrundshading und Texturen zu sparen? Gut das Alben es anspricht, ich profitiere davon überhaupt nicht, weil es gleich das Erste ist was ich in Spielen abschalte. Auwiehö FP32.:D

Bei der Abbildung des Kühlprinzip lässt die Marketingabteilung grüßen, wie strömt die Luft eines Axilalüfters über die Finnen nach Vorne, wenn diese in die engegengesetzte Richtung von der Blende weg ausgerichtet sind, aber zur Blende hin strömen sollen? Keine Ahnung wahrscheinlich überlistet Ampere auch die Aerodynamic.:)

Blahblubb = wir sind toll, mehr kommt da eigentlich nicht rüber. Nichts wesentliches, bis auf das bestimmte Parallelitäten wieder auf der Strecke bleiben und vermutlich von Turing geerbt sind, wahrscheinlich würde das sonst noch mehr Energie kosten und fiel der Effizienz zum Opfer.

Ergo muss ein Teil der Einheiten wieder warten, was Zeit kostet. Das Energieverteilungkonzept beim Zuweisen, ist also immer noch nicht viel besser, der Dev frickelt es wieder hin.
 
Zuletzt bearbeitet von einem Moderator:

LastManStanding

PCGH-Community-Veteran(in)
Was ich in einem kommenden Test interessant fände wäre wie sich das Kühldesign der FE auf die CPU Kühlung auswirkt wenn klassisch mit Luft gekühlt wird. Soweit ich das sehe bläst die GPU dann warme/heiße Luft direkt vor den CPU Kühler. Das das komplett ohne Folgen sein soll kann ich mir nicht vorstellen wenn die CPU mit der warmen Luft gekühlt wird.

Einfach messen was die Ablufttemperatur bei 80°C GPU Temperatur hat und mit der CPU vergleichen. Cpu kühler werden sowiso maximal Handwarm.
Messe dann mit nem Thermometer ab welcher Entfernung ein Föhn auf niedrigster Lüfter Geschwindigkeit diese Ablufttemperatur der GPU Kühlung erreicht hat. Halte diesen dann in entsprechender Entfernung vor die CPU-Kühlung dann weißt du`s.
Mein GPU-Kühler selbst ist im Mittel 60°C warm bei 77°C GPU Temp. direkt am Kern ganz nahe auch 65°C oben wo die Lüfter sitzen nur noch so um die 30°C. Die Abluft Temperatur ist noch geringer als die Materialtemperatur.
Darum, und weil der CPU-Kühler auch jetzt schon sowiso fast die gesamte Abwärme der GPU verarbeiten muss bei den meisten GPU-Kühlungen, glaube ich auch das es keinen riesen einfluss auf die CPU hat. Vorrausgesetzt der Airflow im Gehäuse passt Das muss er aber eh.
Ich denke auch, wer eine High End Karte kauft wie die 80/90´er hat aller Vorraussicht nach ansonsten auch hochwertige Komponenten und ein überlegtes Konzept. Alles andere wäre strange


Dennoch Du hast recht ich bin auch gespannt auf Erfahrungen und Test´s
 
Zuletzt bearbeitet:
E

eclipso

Guest
Einfach messen was die Ablufttemperatur bei 80°C GPU Temperatur hat und mit der CPU vergleichen. Cpu kühler werden sowiso maximal Handwarm.
Messe dann mit nem Thermometer ab welcher Entfernung ein Föhn auf niedrigster Lüfter Geschwindigkeit diese Ablufttemperatur der GPU Kühlung erreicht hat. Halte diesen dann in entsprechender Entfernung vor die CPU-Kühlung dann weißt du`s.
Mein GPU-Kühler selbst ist im Mittel 60°C warm bei 77°C GPU Temp. direkt am Kern ganz nahe auch 65°C oben wo die Lüfter sitzen nur noch so um die 30°C. Die Abluft Temperatur ist noch geringer als die Materialtemperatur.
Darum, und weil der CPU-Kühler auch jetzt schon sowiso fast die gesamte Abwärme der GPU verarbeiten muss bei den meisten GPU-Kühlungen, glaube ich auch das es keinen riesen einfluss auf die CPU hat. Vorrausgesetzt der Airflow im Gehäuse passt Das muss er aber eh.
Ich denke auch, wer eine High End Karte kauft wie die 80/90´er hat aller Vorraussicht nach ansonsten auch hochwertige Komponenten und ein überlegtes Konzept. Alles andere wäre strange


Dennoch Du hast recht ich bin auch gespannt auf Erfahrungen und Test´s
Fragt sich nur was die machen die keinen Towerkühler verbaut haben, denn bei Standardkühlern bzw. Referenzkühlern wird die Luft schön über die VRM des Mainboard geblasen. Zudem fordert das Konzept nicht nur neue Anschlüsse, Netzteile und wahrscheinlich auch Kühler, sondern neue Gehäuse, nämlich dann wenn das alte CS Schätzchen noch werkelt und da oben gar keinen Lüfter hat. Bekanntlich steigt warme Luft nach oben, wird dann nunmehr nicht mehr über die GPU umgewälzt, sondern eine Etage höher. Und 320w sind nicht wenig.
 

LastManStanding

PCGH-Community-Veteran(in)
Du übersiehst die identische Warme Luft ist ja sowiso da, nur das sie momentan bei den meisten Kühllösungen warlos im Gehäuse verteilt wird.
Die neue NV lösung pustet Vorne durch das Anschlusspanel der GPU UND oben raus. Nachteile bei der Gehäuse und CPU Temperatur haben dadurch dann nur Leute mit bisherigen Radiallösungen im Vergleich zur neuen Lösung. Die neue Kühllösung ist nach meiner Meinung so manchen Dritthersteller Lösungen wenigstens ebenbürtig. Weil nur noch ein Teil der Warmen Luft die bisher im Gehäuse verteilt wurde überhaupt im inneren verharrt und durch die gehäuse Lüfter abgeführt werden muss.
 
Zuletzt bearbeitet:
E

eclipso

Guest
Die neue NV lösung pustet Vorne durch das Anschlusspanel der GPU UND oben raus. Nachteile bei der Gehäuse und CPU Temperatur haben dadurch dann nur Leute mit bisherigen Radiallösungen im Vergleich zur neuen Lösung. .
So ist es, alle die auf DHE setzen und einen Umbau dadurch nicht brauchten. Da kann Ampere Referenz teuer werden oder Zusatzkosten verursachen. DHE hat den Nachteil, das Radial dann lauter wird und die Blende am Auslass sich stark erhitzen kann.

Alle die kein Gehäuse besitzen das auf den "Kamineffekt" setzt, bräuchten dann vermutlich Alternativen. Hast du richtig erkannt und genau das meinte ich.:daumen:

Wobei die 3070 auch keine Alternative ist, trotz weniger Abwärme.
 

ChrisMK72

PCGH-Community-Veteran(in)
3080 Aorus hat ganze 4SLOTS PogChamp

Die "Extreme" gefällt anscheinend nicht nur mir ... irgendwie. :)

Steve GN

"One of the fattest video cards, we have ever seen!" :D :daumen: :hail: :lol:

Gefällt !

Könnte schon mein Ding werden, mit lediglich 2x 8pin. Will ja nicht OCen. Brauche nur Grundpower und halt n guten Kühler(am besten mit leisen Lüftern, was ja aber logischerweise mit der Last(kein OC) und den Temps(Megafetter Kühler) zusammenhängt.
Groß genug scheinen die Lüfter auch zu sein, damit die nicht drehen müssen, wie bekloppt.
 

dragonslayer1

PC-Selbstbauer(in)
customs sind alle so hässlich und die rog strix fail die haben lieber darauf geschaut das rog logo draufzuklatschen als eine funktionelle kühlung asus müll .
 

Threshold

Großmeister(in) des Flüssigheliums
Mal sehen, wie sich die Founders schlägt.
Die einzige Karte, die wirklich hochwertig wirkt und nicht aussieht, als wenn sie gerade ausm Kaugummi Automaten geplumpst wäre.
 

ChrisMK72

PCGH-Community-Veteran(in)
und nicht aussieht, als wenn sie gerade ausm Kaugummi Automaten geplumpst wäre.

Kaugummiautomaten haben wir als Kinder immer manipuliert und mehr rausgeholt, als eigentlich vorgesehen war. Gutes Omen ! :D

Hoffe PCGH kriegt auch eine Xtreme von Gigabyte.
Kann mir irgendwie gar nicht vorstellen, dass die schlecht is.

Seit dem Aorus Namen haben die glaub ich auch zugelegt, mit der Kühlung.
Hab n älteres Gaming Laptop, mit GTX 1070. Das war n Aorus. Gute Qualität, mit interessanten Details.
Die haben da echt auf so einiges geachtet. Die Kühlung war gut, wenn Laptoptypisch auch laut.
Beim Zocken ging der Tischfön schon mal an.
Aber bei diesem riesigen Teil ... mal schaun ... :)


edit: Vapor Chamber ? Dickes Kupfer auf GPU+VRM ? Wenn die das schnell an den fetten Kühler abgeben können, könnte das gut werden.
Nicht dass der Speicher mit aufgeheizt wird. ;) Sieht aber eigentlich gut aus. Finde viel Kupfer sieht immer gut aus, bei Kühlern.
Langsam wandert das Ding Richtung meiner Nr. 1 ...
Mal sehr gespannt.


btw: "Xtreme", passt doch zu PCGH Xtreme ! :D


edit2:

Eigentlich find ich die gar nicht so bunt/Kaugummiautomatenmässig.

Sieht eigentlich sogar ziemlich geil aus.

3.jpg

4.jpg

Ähm ... wie war das noch mal mit Knappheit zu Beginn ?


Öööööhhhm ... ich find die ganz doof ! Bestellt lieber was Anderes. Ich mag die nicht. Ganz eeehrlich ! ;)


edit3: Habt ihr schon mal so total schrottige billige Pseudowerbung gesehen, wie in einem Quentin Tarantino Film ?
Hab mich eben scheckig gelacht, wie trashig(gut) das war:

TrashWerbung

Hm ... ich glaub langsam die Bilder mit den 2x 8pin sind die 3080, nicht 3090.
Einfach weil ich gerade in einen Stream(nicht live) reingehört hab über die Karte und die "Xtreme" soll da auch Xtreme werden. Kann mir nicht vorstellen, dass das dann bei der 3090 mit 2x 8pin kommt.
 
Zuletzt bearbeitet:

dragonslayer1

PC-Selbstbauer(in)
warte bis du sie halten kannst die bilder werden der Karte nicht gerecht das Teil ist, its a beauty :D bestes Design von Nv bis Heute. 3090 ist halt ein panzer.
 

rasenschach

PC-Selbstbauer(in)
Die "Extreme" gefällt anscheinend nicht nur mir ... irgendwie. :)

Steve GN

"One of the fattest video cards, we have ever seen!" :D :daumen: :hail: :lol:

Gefällt !

Könnte schon mein Ding werden, mit lediglich 2x 8pin. Will ja nicht OCen. Brauche nur Grundpower und halt n guten Kühler(am besten mit leisen Lüftern, was ja aber logischerweise mit der Last(kein OC) und den Temps(Megafetter Kühler) zusammenhängt.
Groß genug scheinen die Lüfter auch zu sein, damit die nicht drehen müssen, wie bekloppt.

Habe mich auch für die entschieden (ausser die EVGA FTW überzeugt mich mit besseren Temperaturen bei niedrigerer Lautstärke) - man kann ja die Beleuchtung auch so anpassen, dass es nicht wie eine Discokugel leuchtet.
 

RtZk

Lötkolbengott/-göttin
Hoffe PCGH kriegt auch eine Xtreme von Gigabyte.
Kann mir irgendwie gar nicht vorstellen, dass die schlecht is.

Seit dem Aorus Namen haben die glaub ich auch zugelegt, mit der Kühlung.
Hab n älteres Gaming Laptop, mit GTX 1070. Das war n Aorus. Gute Qualität, mit interessanten Details.
Die haben da echt auf so einiges geachtet. Die Kühlung war gut, wenn Laptoptypisch auch laut.
Beim Zocken ging der Tischfön schon mal an.
Aber bei diesem riesigen Teil ... mal schaun ... :)


edit: Vapor Chamber ? Dickes Kupfer auf GPU+VRM ? Wenn die das schnell an den fetten Kühler abgeben können, könnte das gut werden.
Nicht dass der Speicher mit aufgeheizt wird. ;) Sieht aber eigentlich gut aus. Finde viel Kupfer sieht immer gut aus, bei Kühlern.
Langsam wandert das Ding Richtung meiner Nr. 1 ...
Mal sehr gespannt.


btw: "Xtreme", passt doch zu PCGH Xtreme ! :D

Die Tuf startet scheinbar bei 1600€ eine Strix dann vermutlich Richtung 1700€ . Da wird eine Aorus Xtreme in die gleiche Richtung gehen. Dicke Kühler sind zwar ein gutes Zeichen, aber auch das kann man verhauen. Der 2080 Ti Aorus Xtreme Kühler war auch ein Brocken und nicht gerade Spitzenklasse. 200-300€ dann am Ende mehr ausgeben für einen Kühler der dann eventuell nur die FE knapp schlägt und mit 2x 8 Pin ( NVIDIA GeForce RTX 3090 | VideoCardz.net ) sicherlich auch nicht das Übertakter Modell schlecht hin wird.
Ich weiß ja nicht, ich tendiere mittlerweile immer mehr zur FE. Am 14.09 beim Fall des NDA's wird sich aber ja zeigen ob das Kühlerkonzept der 3080/3090 überzeugen kann.
Ich habe mich eigentlich auf die FTW3 eingeschossen, aber dafür um die 200€ mehr zu zahlen, für quasi keine Vorteile?
 

ChrisMK72

PCGH-Community-Veteran(in)
warte bis du sie halten kannst die bilder werden der Karte nicht gerecht das Teil ist, its a beauty :D bestes Design von Nv bis Heute. 3090 ist halt ein panzer.


Ohj, ja ! :D

6.jpg

Sick ! :lol:

edit:
Ach ... du meintest die FE ?
Hm ... naja ;)

Ich guck mir grad was Anderes an. :D

Aber "Tank" passt schon ganz gut dazu.
Die FE sieht ja so niedlich aus dagegen.
 

Olstyle

Moderator
Teammitglied
Eine FE mit Wakü dürfte eigentlich schön kompakt werden. Die Platine ist ja eigentlich alles andere als riesig. Mal sehen ob ein entsprechender Kühler noch auftaucht. Die ersten von EK waren ja für das Alternativ PCB.
 

dragonslayer1

PC-Selbstbauer(in)
Die Gamerock sieht aus um gottes willen als wäre die bei Palit auf LSD. Nicht meins. gut mir gefällt die Fe kein bling bling schlicht und einfach und funktionell(das sogar gut). Aber an die Temps muss man sich erst gewöhnen nach Turing nix mit 66 Grad bei den top customs^^

aber bei sovielen ist sicher für jeden was dabei. :)
 

ChrisMK72

PCGH-Community-Veteran(in)
Dicke Kühler sind zwar ein gutes Zeichen, aber auch das kann man verhauen. Der 2080 Ti Aorus Xtreme Kühler war auch ein Brocken und nicht gerade Spitzenklasse. 200-300€ dann am Ende mehr ausgeben für einen Kühler der dann eventuell nur die FE knapp schlägt und mit 2x 8 Pin ( NVIDIA GeForce RTX 3090 | VideoCardz.net ) sicherlich auch nicht das Übertakter Modell schlecht hin wird.
Ich weiß ja nicht, ich tendiere mittlerweile immer mehr zur FE. Am 14.09 beim Fall des NDA's wird sich aber ja zeigen ob das Kühlerkonzept der 3080/3090 überzeugen kann.
Ich habe mich eigentlich auf die FTW3 eingeschossen, aber dafür um die 200€ mehr zu zahlen, für quasi keine Vorteile?

Da hast du ein paar schlagfertige Argumente.
Man darf sich glaub ich nicht zu schnell von was hypen lassen.
Die Tests müssen im Endeffekt auch den Eindruck, bzw. die Wünsche bestätigen, ob die auch so eintreffen.
Wenn nicht, kann man sich ja immer noch umschauen.

Bei so einer Ausgabe sollte man schon 3 mal drüber nachdenken und vorher checken.
Stimmt.

Aber trotzdem mag ich so fette Kühler. ;)
Ich bin halt auf Luftkühlungsfan und ich mag auch große Lüfter im Case. Da passt das gut zu, z.B. zu meinen 2x 200er Frontlüftern und den anderen 140ern. :)

Ich hoffe die Bestätigen auch die Funktion und nicht nur die Optik.
Wobei ja die Xtreme eher die obere OC Variante(ab Werk) werden soll, also eigentlich genau das, was ich nicht wollte. ;)
Natürlich wird man da sicherlich manuell auch wieder dran justieren können und das evtl. selber runterschrauben, wenn man einfach auf das Design steht.

Is natürlich die Frage, ob einem das noch 2-300€ extra wert ist. Ist schon eigentlich ne riesen Geldverbrennung. ;)
 
Oben Unten