Die Geforce RTX 4090 ... - Das sagen die PCGH-Redakteure dazu

Mal wieder sehr interessant, wobei ich Santana gerne fragen würde, warum es ihr ausgerechnet die Palit so sehr angetan hat. Meist fallen bei Lieblingsherstellern ja Namen wie Asus oder MSI; da ist ihre Wahl erfrischend anders ...

Ansonsten hätte ich mir gewünscht, dass wenigstens einer der Redakteure mal den Preis der 4090 durch einen Blick über den großen Teich relativiert hätte, denn der ist dort - trotz des klaren Fortschritts gegenüber der 3090 - beinahe unverändert. Dann wäre auch der pervers krasse Gegensatz zwischen 4080- und 4090-Bepreisung noch deutlicher geworden, der im Euroraum durch die stärker im Preis gestiegene 4090 etwas verwässert wird. (Was umso mehr gilt als die 4080 wohl auch für die meisten hier im Forum die interessantere weil bezahlbarere Karte ist.)

Ja, es ist richtig, dass wir hierzulande in Euro bezahlen und dass damit der erste Blick natürlich auf diese Preise gerichtet ist. 95% der Welt zahlen aber nun mal nicht in Euro, und das sollte zumindest mal einen zweiten Blick wert sein, wenn es darum geht, ein Produkt und eine weltweit agierende Firma ganz allgemein zu beurteilen.
 
Ist denn schon 2023?

Was soll den noch kommen ?

AMD mit ihren 12288 aufgedoppelten Shadern ?

Für einen Apfel ? und einem Ei ?

Wenn wir Glück haben bekommen wir von AMD dieses Jahr noch RTX 4080 Ti Leistung für 1499€ zu sehen.

Was mich freuen würde - damit die Preise der RTX 4080 direkt nach unten gehen.
 
Wenn wir Glück haben bekommen wir von AMD dieses Jahr noch RTX 4080 Ti Leistung für 1499€ zu sehen.

Was mich freuen würde - damit die Preise der RTX 4080 direkt nach unten gehen.
Nvidia und AMD werden sich - wie auch schon bei Ampere - nicht viel nehmen, was das Preis/Leistungsverhältnis angeht.

Man braucht ja nur die einzelnen Punkte durchzugehen, bezüglich derer eine AMD-Karte die 16-GB-4080 angreifen könnte: Preis, Featureset (RT, DLSS etc.), Non-RT-Leistung, RT-Leistung, VRAM, Stromverbrauch/Effizienz, Lautstärke, Treiberqualität. Am Ende wird's für jeden Vorteil einen Nachteil geben, der Kram wird ziemlich gleichauf sein, und schlussendlich entscheiden persönliche Prioritäten und Präferenzen darüber, wem man dem Vorzug gibt.

Bei Ampere konnte AMD als großen Pluspunkt noch den Speicherausbau nutzen, der beim Vergleich einer 16-GB-6800 mit den 8 oder 10 GB einer 3070/3080 ziemlich eklatant war. Zumindest was das betrifft, wird's da mit einer 16-GB-4080 schon mal deutlich enger für AMD. Bin gespannt, wie man das kompensieren wird.

Unterhalb dieser Karte sehe ich deutlich größere Chancen, insbesondere wenn man sieht, wie dumm sich Nvidia bei der 12-GB-4080 angestellt hat. Wenn Nvidia bei allem, was nicht 4080 heißt, wieder mit nur 8-12 GB VRAM rumgeizt, AMD dagegen 16 GB, vergleichbare Leistung und vielleicht sogar einen leichten Preisvorteil zu bieten hat, könnte das die Grünen ganz schön unter Druck setzen.
 
Was soll den noch kommen ? AMD mit ihren 12288 aufgedoppelten Shadern ?
Für einen Apfel ? und einem Ei ?
und DP 2.1 (die 4090 kann FG doch gar net gescheit zum HDR10-Moni bringen, nur mit DSC und dann noch mehr Inputlag)

Wer jetzt net gerade ein ATX 3.0 -NT hat, zieht sich@Ada außerdem einen echt unschönen Kabelsalat ins Beautycase.
Der Adapter-Knäuel ist u.U. so steif, das Manche das Seitenteil net mehr zu bekommen.

btw.
Als UVer wäre ich auch net glücklich das die 4090 mind. 875mV braucht.
(meine olle 6800 kann auch <750mV im Fps-Limit ganz gechilled)
... kostet momentan nur 539€, ... reicht auch für viele Dinge@raster
 

Anhänge

  • SoTR@XeSS_Chill57fps.jpg
    SoTR@XeSS_Chill57fps.jpg
    1,5 MB · Aufrufe: 20
  • 6800@539€.JPG
    6800@539€.JPG
    61,4 KB · Aufrufe: 18
Zuletzt bearbeitet:
und DP 2.1 (die 4090 kann FG doch gar net gescheit zum HDR10-Moni bringen, nur mit DSC und dann noch mehr Inputlag)

btw.
Als UVer wäre ich auch net glücklich das die 4090 mind. 875mV braucht.
(meine olle 6800 kann auch <750mV im Fps-Limit ganz gechilled)
Ist die Frage, wer unbedingt noch weiter undervolten will und muss, wenn 875mV der sweet spot sind, um das Ding vergleichsweise kühl und leise auf unter 350 W zu halten und dabei nur minimal Performance zu verlieren.
 
Also wenn GTA6 blad erscheinen würde dann würde gäbe es echt Gründe so eine Karte heute zu kaufen.
Zusätzlich würde ich gerne erst ein ATX 3.0 Netzteil haben.
 
Ja was, und da hast Du noch keine? Noch nicht mal bestellt? Dann hau mal raus, den Shit. Sag aber nicht es sei zu teuer! Dann bist Du wieder der A-Normalo. :ugly:

Momentan gibt es nichts, das mich wirklich juckt. das nächste ist die FC6 Erweiterung.

AMD und Nvidia haben mich mittlerweile weich geklopft, dass ich bereit bin einmal im Jahrzehnt einen ordentlichen Batzen Geld auf den Tisch zu legen. Ob es die RTX 4090 wird, dürfte sich dann 2023 zeigen.

Und Energiewende zu Unzeiten ist definitiv dämlich. Per se muss sie aber sein (hätte schon längst durch sein sollen), denn sonst hätten wir nicht den Salat, so wie er jetzt angerichtet ist.

1: nein, muß sie nicht, man kann auch auf Kernkraft setzen (meine Wahl) oder CCS Kohlekraftwerke verwenden.
2: eine echte "Energiewende" kostet eben Unsummen und wird uns wohl ca. 5 Mio Arbeitsplätze kosten. Das ist prozentual in etwa soviel, wie nach der Wende in der ehemaligen DDR wegefallen sind, nur diesmal in ganz Deutschland. Solange man diesen Preis nicht zahlen will, wird das nichts mit der "Energiewende".

Ist denn schon 2023?

Wenn man prinzipiell auf Nvidia steht, dann kann man das schon jetzt sagen.

(...) sonst rockt das Teil finster ab.

Also kein HDR :(
 
Ich finde es interessant, das sich KEINER aus der Redaktion die 4090 holt.

Persönlich werde ich sie mir holen, aber nur weil ich 2021 mit dem Verkauf meiner gebrauchten GPUs einen Gewinn gemacht habe, der fast an den Preis der 4090 rankommt. Wäre das nicht passiert, hätte ich jetzt noch eine 3080 oder 3090 und die 4080 16Gb wäre mir aktuell auch noch zu teuer und ne 4070 lohnt nicht.
und DP 2.1 (die 4090 kann FG doch gar net gescheit zum HDR10-Moni bringen, nur mit DSC und dann noch mehr Inputlag)
Was ist denn Display Port 2.1? Das gibt es doch gar nicht. Es gibt nur DP 2.0 und darin gibt es 3 Bandbreiten: 10, 13,5 und 20GHz.
HDMI 2.1 ist schneller als UHBR10, was der langsamste DP 2.0 standard ist. HDMI 2.1 schafft zumindest 4k, 144Hz mit 10Bit kompressionsfrei.
 
Ich finde es interessant, das sich KEINER aus der Redaktion die 4090 holt.

Sind halt eben auch nur normale Menschen und ein Redakteursgehalt dürfte auch begrenzt sein (würde mich interessieren, wie hoch es ist), besonders nach dem irren Abonnentenschwund dürfte die Luft recht dünn sein, was hohe Gehälter angeht.

Irgendwo gab es mal eine Übersicht, was die Redakteure so haben und es war meist durchschnittlich.

Persönlich werde ich sie mir holen, aber nur weil ich 2021 mit dem Verkauf meiner gebrauchten GPUs einen Gewinn gemacht habe, der fast an den Preis der 4090 rankommt. Wäre das nicht passiert, hätte ich jetzt noch eine 3080 oder 3090 und die 4080 16Gb wäre mir aktuell auch noch zu teuer und ne 4070 lohnt nicht.

Das ist natürlich eine irrationale Sichtweise, entweder sie ist es einem wert oder eben nicht.

Was ist denn Display Port 2.1?

Soll angeblich bei den AMD Karten verbaut werden. Entweder eine neue Version (DP 2.0 ist immerhin schon 3 Jahre alt [umso peinlicher, dass Nvidia das nicht hinbekommen hat]), die AMD als erste implementieren (immerhin sind sie da am Puls der Zeit) oder ein Irrtum.

Das gibt es doch gar nicht.

Noch nicht, aber wenn wir Glück haben, bringt es AMD am 3.11 heraus.

Was auch immer das werden soll, ich tippe auf eine Version, die noch ein paar kleine Extras hat, ähnlich HDMI 2.0a, das ja einfach nur Freesync (und ein paar andere Ding) gebracht hat.

Es gibt nur DP 2.0 und darin gibt es 3 Bandbreiten: 10, 13,5 und 20GHz.

Ja und ich hoffe mal, dass AMD die Version mit 80GBit unterstützt.

HDMI 2.1 ist schneller als UHBR10, was der langsamste DP 2.0 standard ist. HDMI 2.1 schafft zumindest 4k, 144Hz mit 10Bit kompressionsfrei.

Umgekehrt ist HDMI 2.1 wesentlich langsamer, als die schnellst DP 2.0 Version.
 
Noch nicht, aber wenn wir Glück haben, bringt es AMD am 3.11 heraus.
Displayport 2.1 GIBT ES (noch) NICHT.
AMD macht keine DP Standards, dafür ist VESA zuständig.
Sollte VESA am selben Tag einen neuen Standard in Form von DP 2.1 preisgeben, wäre das was anderes.
Was ansich schon seltsam wäre, da noch kein Standard ab Tag 1 unterstützt wurde.
Aber AMD selbst hat nicht das Recht einen neuen DP Standard rauszubringen oder es DP 2.1 zu nennen.
 
Displayport 2.1 GIBT ES (noch) NICHT.
AMD macht keine DP Standards, dafür ist VESA zuständig.
Sollte VESA am selben Tag einen neuen Standard in Form von DP 2.1 preisgeben, wäre das was anderes.
Was ansich schon seltsam wäre, da noch kein Standard ab Tag 1 unterstützt wurde.
Aber AMD selbst hat nicht das Recht einen neuen DP Standard rauszubringen oder es DP 2.1 zu nennen.
AMD sitzt in dem Gremium das den Standard definiert. Man kann also ohne Probleme einen technisch kompatiblen Anschluss verbauen, egal ob der Standard nun schon definiert wurde oder nicht.
 
Displayport 2.1 GIBT ES (noch) NICHT.

Richtig, das ist der Witz an der ganzen Geschichte.

AMD macht keine DP Standards, dafür ist VESA zuständig.

Ja und AMD hockt da drin. Sprich sie haben dort den optimalen Einblick.

Sollte VESA am selben Tag einen neuen Standard in Form von DP 2.1 preisgeben, wäre das was anderes.

Sie müssen das nur VESA intern so nennen.

Was ansich schon seltsam wäre, da noch kein Standard ab Tag 1 unterstützt wurde.

Kommt darauf an. Bei WLAN gibt es auch regelmäßig Geräte, die vor der offiziellen Vorstellung erscheinen (z.B. als Draft n WLAN). Sollte es DP 2.1 gegeben, dann hängt es wohl von dem Umfang der Änderungen ab. Kleinere sollten sich einfach realisieren lassen.

Aber AMD selbst hat nicht das Recht einen neuen DP Standard rauszubringen oder es DP 2.1 zu nennen.

Richtig, aber das muß AMD auch nicht.

Wie ist das gemeint? Ich nutze HDR.

Na weil das Teil finster abrockt und es damit keine hellen Stellen gibt :ugly:. Ich würde auch noch die Gammaeinstellungen überprüfen oder die allgemeine Helligkeit. Eventuell ist das ja auch bei Windows verstellt.
 
Zuletzt bearbeitet:
@Pu244, @Gurdi
Wie es scheint hattet ihr Recht und auch teilweise ich.
VESA hat DP 2.1 Spezi veröffentlicht, aber NICHT AMD hat es getan. :P

Wobei ich jetzt beim Press Release nur rauslesen kann, das DP 2.1 faktisch DP 2.0 ist, wenn man rein von der Übertragungsrate ausgeht.
 
Ja, es ist richtig, dass wir hierzulande in Euro bezahlen und dass damit der erste Blick natürlich auf diese Preise gerichtet ist. 95% der Welt zahlen aber nun mal nicht in Euro, und das sollte zumindest mal einen zweiten Blick wert sein, wenn es darum geht, ein Produkt und eine weltweit agierende Firma ganz allgemein zu beurteilen.
Deine Argumentation funktioniert aber nur wenn man dem Euro eine so geringe Bedeutung zuspricht. Wie kommst du auf die 95%?

"Der Euro behauptet sich als weltweit am zweithäufigsten genutzte Währung nach dem US-Dollar. Gemessen an verschiedenen Indikatoren zur internationalen Verwendung von Währungen betrug der Anteil des Euro im Durchschnitt rund 19 %"

Quelle:Bundesbank
 
Die 19 Euro-Staaten, in denen der Euro offizielle Währung ist, haben eine Gesamtbevölkerung von etwa 340 Millionen. Bei einer Weltbevölkerung von 8 Milliarden, sind das 4,25%. Mit anderen Worten: Wenn irgendeine Privatperson auf der Welt etwas kauft, zum Beispiel eine 4090, zahlt sie in fast 96% der Fälle nicht in Euro.

Da viele Waren weltweit in Euro gehandelt werden ist der Anteil der Währung am Gesamthandel natürlich deutlich größer, aber das ist ein völlig anderes Thema und darum ging es in meiner Aussage auch überhaupt nicht.

Tatsache ist nun mal, dass die hohen Euro-Preise aufgrund des schwachen Euros Nvidia nicht einen Dollar Mehreinnahmen bescheren. Da der Dollar die einzige für Nvidia relevante Währung ist, sollte man daher bei der Beurteilung, wie teuer ein Produkt ist, auch die Dollar-Preise zugrunde legen und nicht die Preise in irgendeiner anderen Währung. Wäre der Euro/Dollar-Wechselkurs heute immer noch der gleiche wie bei der Einführung von Ampere, würde die 4090 nicht 1949, sondern 1599 Euro kosten. Dass das nicht so ist, dafür kann Nvidia nichts.
 
Zurück