Geforce RTX 4090: EU-Händler listet schon 14 Custom-Designs, teurer als die UVP

@theGucky Bei welchem Händler waren die 2479 EUR und wie hoch war der Preis vorher? Oder sind es Preise von zwei verschiedenen Händlern?
Das ist der Proshop Preis, Karte auch "in stock" mittlerweile:

1664633173499.png


Klick
 
An der Nvidia Fanboy Front ist - entgegen anderslautender Vermutung - alles in Ordnung mit paradiesischen Zuständen. So sehe ich das:

1. Zwar gibt es nicht jedes Jahr eine neue Grafikkartengeneration, aber es muss sich ja auch finanziell lohnen, ohne dass Chips in Vergessenheit geraten. Der AD104 der RTX 4080 12 GB ist "nur" 295mm² groß, aber bis zu einem Preis von 1.100€ würde ich mitgehen für eine 285 Watt Version. Man bekommt wieder mehr Rechenleistung und niedrigere Verbräuche für das Geld. Smash!

2. Eine RTX 3070 Ti (290 Watt) wird dann trotz nur 25% mehr FP32 ALUs der 12 GB 4080 gegen die Wand gedrückt ( Bilder pro Sekunde: Faktor 2-3?), genau wie jede andere Ampere Grafikkarte sich da schon die Zähne ausbeißen wird.

3. Eine GTX 660 wurde seinerzeit auch umbenannt zur GTX 680, weil man bei Nvidia sich etwas mehr erhoffte von der Konkurrenz und man war immer noch schneller und natürlich sparsamer dabei als mit einer GTX 580. Derzeit probiere ich einige Dinge mit einer RTX 3050 4GB Mobile aus, wobei ich lange Zeit ja ohne externe Grafikkarte unterwegs war, weil einfach zu unattraktiv. Der Einstieg in Ampere mit MX570, RTX 2050, und RTX 3050 (Ti) ist gut genug...und wenn sich ein Feature findet, das ich unbedingt haben will, wird auf maximal diese 4080 12 GB aufgerüstet.

4. Die angekündigten Preise gehen für das Gebotene schon in Ordnung, weil der Einkauf der Chips sich verteuert hat. Egal ob 500€ oder die besagten 1.100€...für diese Bildqualität - ob Fake oder nicht - gibt es allen Grund zur Freude. Es kümmert mich überhaupt nicht, ob das, was ich sehe, echt ist. WAYNE interessiert's vielleicht, aber mich doch nicht.

5. Die Kühldesigns der 4090 Karten sind mir zu heftig; das ist zu viel des Guten. Es ist ja auch nicht so, dass man sich solche Karten nicht leisten kann oder man sie sich leisten wird müssen...auch hier im Forum sieht man ja bereits das Interesse bei mehr als 2.000€ Kaufpreis...es läuft. Wenn Nvidia sich so verhält wie sie es gerade tun, würde mich sehr überraschen, wenn sie das aus Verzweiflung tun; diese Wette würde ich halten. Respekt auch für die Entscheidung von EGVA, dafür werden sie reich belohnt. Ich hoffe sehr, Nvidia hat die Latenzen im Griff und mit etwas Glück bekommen wir nächstes Mal ein Namensschema, das mehr Leute als selbstverständlich ansehen aka der 4070 Witz...aber man weiß ja nie. :devil:

Insgesamt habe ich als Fanboy keinen echten Grund zu klagen. Alle klöppeln und ich bekomme viel Technik für das Geld. Zudem wird es in Zukunft ja auch den einen oder anderen europäischen Marktteilnehmer geben.

Viele Grüße
 
Ich auch, am 27.09. :lol:
Siehste, lag ich doch gar nicht mal so falsch. Wenn jetzt nur endlich mal die Boards und die Netzteile verfügbar wären, aber gut, so lang ist ja nicht mehr hin bis zum 12.10. bzw. 20.10.

Hab mir ein 1300er Seasonic gekauft, das wird dicke reichen auchh ohne 12PIN. Wurde ja quasi aus einigen Richtungen bestätigt.
 
das große ende des witzes kommt aber erst noch in form des preises der 4090"Ti" in 6-10 monaten , auf die preisaufrufe bin ich mal sehr gespannt^^
 
das große ende des witzes kommt aber erst noch in form des preises der 4090"Ti" in 6-10 monaten , auf die preisaufrufe bin ich mal sehr gespannt^^

Ich glaub eher, die rutschen nach. Wenn die 3er Serie nach unten ausläuft, werden die 4090er billiger und die Ti's liegen dann bei den jetzigen Non-Ti's, für die Custom Versionen werden dann wieder zwischen 2K-2.5K aufgerufen.
 
Ich glaub eher, die rutschen nach. Wenn die 3er Serie nach unten ausläuft, werden die 4090er billiger und die Ti's liegen dann bei den jetzigen Non-Ti's, für die Custom Versionen werden dann wieder zwischen 2K-2.5K aufgerufen.
mal ehrlich glaubst nicht das nvidia den 3(000)er aufruft für die 4090 ti ??
bei allem was ich bis jetzt gesehen hab ,fällt es mir schwer zu glauben das nvidia das nicht macht
 
mal ehrlich glaubst nicht das nvidia den 3(000)er aufruft für die 4090 ti ??
bei allem was ich bis jetzt gesehen hab ,fällt es mir schwer zu glauben das nvidia das nicht macht
Also wenn die Preise wirklich zu hoch sein sollten, verschieben die Leute ihre Aufrüstpläne um vielleicht 2-3 Monate. Dann erfolgt die Preissenkung oder es wird trotzdem gekauft.
 
mal ehrlich glaubst nicht das nvidia den 3(000)er aufruft für die 4090 ti ??
bei allem was ich bis jetzt gesehen hab ,fällt es mir schwer zu glauben das nvidia das nicht macht

Kann ich mir eigentlich nur für eine mögliche Titan vorstellen, die sich vllt. zwischen die 4090Ti und die Quadro-Reihe setzt. Nvidia würde ich sowas zwar auch zutrauen, aber das Produktportfolio und die Platzierung der 40xx gibt meiner Meinung nach einen solchen Sprung nicht her. 3000.- € sind in dem Bereich für ein Standardmodell nicht mehr vermittelbar.
 
An der Nvidia Fanboy Front ist - entgegen anderslautender Vermutung - alles in Ordnung mit paradiesischen Zuständen. So sehe ich das:
1. Zwar gibt es nicht jedes Jahr eine neue Grafikkartengeneration, aber es muss sich ja auch finanziell lohnen, ohne dass Chips in Vergessenheit geraten. Der AD104 der RTX 4080 12 GB ist "nur" 295mm² groß, aber bis zu einem Preis von 1.100€ würde ich mitgehen für eine 285 Watt Version. Man bekommt wieder mehr Rechenleistung und niedrigere Verbräuche für das Geld. Smash!

2. Eine RTX 3070 Ti (290 Watt) wird dann trotz nur 25% mehr FP32 ALUs der 12 GB 4080 gegen die Wand gedrückt ( Bilder pro Sekunde: Faktor 2-3?), genau wie jede andere Ampere Grafikkarte sich da schon die Zähne ausbeißen wird.

3. Eine GTX 660 wurde seinerzeit auch umbenannt zur GTX 680, weil man bei Nvidia sich etwas mehr erhoffte von der Konkurrenz und man war immer noch schneller und natürlich sparsamer dabei als mit einer GTX 580. Derzeit probiere ich einige Dinge mit einer RTX 3050 4GB Mobile aus, wobei ich lange Zeit ja ohne externe Grafikkarte unterwegs war, weil einfach zu unattraktiv. Der Einstieg in Ampere mit MX570, RTX 2050, und RTX 3050 (Ti) ist gut genug...und wenn sich ein Feature findet, das ich unbedingt haben will, wird auf maximal diese 4080 12 GB aufgerüstet.

4. Die angekündigten Preise gehen für das Gebotene schon in Ordnung, weil der Einkauf der Chips sich verteuert hat. Egal ob 500€ oder die besagten 1.100€...für diese Bildqualität - ob Fake oder nicht - gibt es allen Grund zur Freude. Es kümmert mich überhaupt nicht, ob das, was ich sehe, echt ist. WAYNE interessiert's vielleicht, aber mich doch nicht.

5. Die Kühldesigns der 4090 Karten sind mir zu heftig; das ist zu viel des Guten. Es ist ja auch nicht so, dass man sich solche Karten nicht leisten kann oder man sie sich leisten wird müssen...auch hier im Forum sieht man ja bereits das Interesse bei mehr als 2.000€ Kaufpreis...es läuft. Wenn Nvidia sich so verhält wie sie es gerade tun, würde mich sehr überraschen, wenn sie das aus Verzweiflung tun; diese Wette würde ich halten. Respekt auch für die Entscheidung von EGVA, dafür werden sie reich belohnt. Ich hoffe sehr, Nvidia hat die Latenzen im Griff und mit etwas Glück bekommen wir nächstes Mal ein Namensschema, das mehr Leute als selbstverständlich ansehen aka der 4070 Witz...aber man weiß ja nie. :devil:

Insgesamt habe ich als Fanboy keinen echten Grund zu klagen. Alle klöppeln und ich bekomme viel Technik für das Geld. Zudem wird es in Zukunft ja auch den einen oder anderen europäischen Marktteilnehmer geben.

Viele Grüße
Ich kann da nur sagen: Abwarten... Auch wenn Nvidia die "angebliche" 4060Ti/4070 eine 4080 genannt hat, müsste da auch noch eine 4060 und eine 4070 rauskommen. Ich kann mir nicht vorstellen das Nvidia die überspringt.
4. Nun die Frage ist...braucht jemand der NICHT in 4k spielt, solch starke bzw neue GPUs? Eine 3080Ti sollte alles bis 1440p abdecken. Da braucht man keine verkrüppelte 4080 12GB...die zwar DLSS3 bietet, aber ansonsten vielleicht sogar langsamer ist.
5. Solange es in den PC passt, ist größer = besser. Größere Kühler bedeuten leisere Lüfter. Die GPUs produzieren nicht mehr Wärme, nur weil der Kühler größer ist.
Eine Asus Strix passt bei MIR nicht rein, aber ich habe auch ein ITX-Gehäuse...eine 4090 Founders passt aber locker rein. Bei mir ist die Länge der Faktor, nicht die 4-Slots.
 
Ich kann da nur sagen: Abwarten... Auch wenn Nvidia die "angebliche" 4060Ti/4070 eine 4080 genannt hat, müsste da auch noch eine 4060 und eine 4070 rauskommen. Ich kann mir nicht vorstellen das Nvidia die überspringt.
4. Nun die Frage ist...braucht jemand der NICHT in 4k spielt, solch starke bzw neue GPUs? Eine 3080Ti sollte alles bis 1440p abdecken. Da braucht man keine verkrüppelte 4080 12GB...die zwar DLSS3 bietet, aber ansonsten vielleicht sogar langsamer ist.
5. Solange es in den PC passt, ist größer = besser. Größere Kühler bedeuten leisere Lüfter. Die GPUs produzieren nicht mehr Wärme, nur weil der Kühler größer ist.
Eine Asus Strix passt bei MIR nicht rein, aber ich habe auch ein ITX-Gehäuse...eine 4090 Founders passt aber locker rein. Bei mir ist die Länge der Faktor, nicht die 4-Slots.
Ich dachte eher an Dinge wie Kompressionseffizienz für Live Streams bei gleichzeitiger Verwendung von V-Sync, RTX Voice, Aufnahme und das Spiel selbst muss ja auch noch berechnet werden, mit oder ohne Einsatz von DLSS. Bei allem gleichzeitig kommt eine der kleineren Ampere Grafikkarten schnell an ihre Grenzen und man braucht länger für das Feintuning. Deshalb die Idee mit der neuen Architektur und den neuen Features. Ich muss noch ganz genau schauen, wie es so läuft und dann entscheide ich mich, nicht zu kaufen, eine 4080 mit 12GB oder ob sogar ein kleineres Modell der 40'er Reihe reicht. Immerhin ist eine RTX 3050 Mobile schon ein Upgrade zur Desktop GTX 1650, die ja noch den alten Pascal NVENC Enkoder nutzte. Und NVENC (New) ab GTX 1650 Super (TU116 Chip) gibt es nicht ohne externe Stromversorgung. Die Suche nach einer Eier legenden Wollmilchsau im Desktop Bereich dauert lange. Eine Einsteiger 75 Watt Karte, die das kann, gibt es mit der Ampere Generation nicht, bis auf z. B. die RTX A2000, die fast so viele Shader hat wie eine normale RTX 3060 und mit der besten Energieeffizienz aufwartet. Der Spaß geht aber erst ab 500€ los. Dann greifen die Leute lieber gleich zu einer normalen RTX 3050/3060, nehmen die schlechtere Effizienz in Kauf und undervolten manuell. Darum eben die Idee, auf den neuesten Schrei zu warten und es sogar etwas zu übertreiben bei der Wahl der Grafikkarte, wobei für Live Streams ja auch der Prozessor herhalten kann. Wichtig werden die Tests sein, viele Tech Größen wie Gamers Nexus möchten viel Wert legen bei der Messung der Transient Spikes. Ich möchte nicht ein normalerweise zu großes Netzteil einsetzen, nur um eine kurzzeitig um Faktor 2 oder 3 erhöhte Leistungsaufnahme abzufangen. Vor dem neuesten Treiberupdate brauchte die RTX 3050 75 Watt hier mal kurzzeitig 96 Watt, aber das ist auch nur der Wert, den MSI Afterburner und RivaTunerStatistics Server in Game anzeigten, während bei den aktuellen Einstellungen das Power Limit von 75 W brav eingehalten wird. Die Kühler können ja ruhig groß sein, nur Plug & Play ist das nicht gerade. Bei der Detroit: Become Human Demo komme ich mit 60-90 Watt Leistungsaufnahme des Gesamtsystems bei vergleichbarer Grafik gerade mal auf die Werte einer 2016 erschienenen PlayStation 4 Slim heran (80 Watt in Spielen) und das, obwohl ein Alder Lake i7-12700H super effizient ist. Erst in Zukunft werden die älteren Konsolen deutlich übertroffen. Natürlich muss Nvidia etwas Tolles liefern, aber wenn sie es tun, verballere ich auch mal richtig viel Geld für Hardware. Eine doppelt so gut bestückte RTX 4090 ist mir schlichtweg zu teuer, aber 192 Bit bei 295mm² Chipfläche mit 12GB GDDR6X Videospeicher scheint mir da ein wunderbarer Sweet Spot zu sein. Übrigens bleibe ich ewig bei 1080p kleben. Die Pixel aus alten Tagen sind weg, das reicht. :daumen:
 
Wieso orientieren sich eigentlich so viele an der UVP? Wenn Nvidia eine UVP von 4000€ ausgerufen hätte um den Preis dann zwei Monate später auf 3000€ zu senken, wäre es dann ein Schnäppchen weil 25% unter UVP? Ich finde, momentan kann man noch nicht wirklich sagen, welcher Preis für die GPU gerechtfertigt wäre, das müssen erst die Tests zeigen.
 
Wieso orientieren sich eigentlich so viele an der UVP? Wenn Nvidia eine UVP von 4000€ ausgerufen hätte um den Preis dann zwei Monate später auf 3000€ zu senken, wäre es dann ein Schnäppchen weil 25% unter UVP? Ich finde, momentan kann man noch nicht wirklich sagen, welcher Preis für die GPU gerechtfertigt wäre, das müssen erst die Tests zeigen.
Genau, gute Frage. Preisstabilität statt Hyperinflation bei gleichbleibendem Einkommen erzeugt eine Art Wohlbefinden, das Spieler sonst nur in ihren Games erfahren können aufgrund der "Fehlentscheidungen" von Behörden etc. hierzulande. Wären 3.000€ - 4.000€ aufgrund der gebotenen Leistung gerechtfertigt, käme aber trotzdem der Punkt, an dem es Leuten wehtun würde und man alleine aufgrund der getätigten Investition viel Zeit mit dem neuen Schmuckstück dann verbringt. Eine "4070" für 500€ Straßenpreis wird es nicht geben, es sei denn die gemachten Performancesprünge samt angepasstem Namensschema würden von den Influencern anerkannt, aber bisher sind alle auf diesen "zu teuer" Zug aufgesprungen, was uns zwar auffällt, aber uns zu keinen unnötigen Verhaltensänderungen veranlasst. Ich kaufe ja auch gerne "Schrott", nur damit Leute keine Kontrolle über meine Ausgaben bekommen. Der Markt regelt das schon und die Tests lesen wir ja genau so gerne wie Bedienungsanleitungen. ;)
 
Ganz bestimmt nicht bei den Preisen
Meine 3090 reicht noch lange.

Wozu außer für den S C H W A N Z Mark braucht mann die 4000er?

Es gibt doch jetzt kaum Spiele die das nutzen außer die grottenschlechten Umsetzungen von den Konsolen
Naja wozu zum Teufel braucht man denn eine 3090...? Nur mal zur Einordnung

Also ich werde sofern die Top-Modelle bei <1500€ liegen wohl dieses Jahr(anfang nächstes) ne AMD 7000 Nvidia 4000 erwerben. Nicht aber weil ich die gesamte Leistung heute brauche, oder Maß an Körperteilen anderer nehmen möchte...

Sollte das nicht klappen und 6900XT/3080TI fallen nicht auf 500€ gehöre ich wohl weiterhin zu den Geschlechtsteil untergeordneten mit meiner low-end-budget-GPU 1080Ti

Auch nett... als ich sie kaufte wurde mir hier gesagt zu viel Leistung zu viel Verbrauch zu viel Speicher...
Heute ist es ne Einsteiger/Mittelklasse Karte und in wenigen Wochen ist es ziemlich sicher ne gehobene Office Karte
 
Genau..

Gibt es ein Spiel das schlechter läuft als der Haufen Schrott Code?

Das heist ich nehme das am schlechstetes gemacht Stück Software und dafür brauche ich dann DLSS und Monsteer GPUs damit ich überhaut 60FPs habe

Ich bleibe bei
Nein

Ich habe weder einen 4k Monitor noch eine entsprechende GPU, also kann ich leider nicht aus eigener Erfahrung sprechen, aber da wohl die Hauptlast am Raytracing liegt, finde ich es schon etwas arg, das Spiel als "Haufen Schrott Code" zu betiteln.

Oder ist für dich jedes spiel was den Rechner auslastet/ausgelastet hat ein "Haufen Schrott Code"?

Zumal das auch nur zutrifft wenn man neben Ultra Settings auch Raytracing auf PSYCHO setzt, was denke ich mal auch nicht umsonst so genannt wird.
 
Ganz bestimmt nicht bei den Preisen
Meine 3090 reicht noch lange.

Wozu außer für den S C H W A N Z Mark braucht mann die 4000er?

Es gibt doch jetzt kaum Spiele die das nutzen außer die grottenschlechten Umsetzungen von den Konsolen
Es gibt wie gesagt auch Menschen da draussen die noch ne 2080 haben und ich brauch fps, ich kauf eher die 4000er serie als ne 30er serie, die ziemlich angestaubt daher kommt.
Es ist einfach so das Spiele wie green hell mit nem 180 Fov und 2x4k pro auge bei 120 Hz leistung kosten.


Ob die zu teuer sind und nvidia einen preismässig an der Schraube hat,...seih mal dahin gestellt.

Mann kann ja in nem halben jahr rie rtx 8Gb und die rtx 6 Gb kaufen ?
 
Zurück