Geforce RTX 4000 und Radeon RX 7000: Um den Faktor 2 - 2,5 schneller?

Nur weil du dir nichts kaufst, heisst es nicht, dass es andere nicht tun.
Man kann sich z.B. Statistiken anschauen, oder einfach nur mal doof sich verändernde Handelsangebote und deren Verkaufszahlen selber anschauen.
Einfach mal bei Geizhals.de einen Screenshot der Angebotsübersicht machen, wie viele Angebote es zu den diversen Modellarten gibt, das jedes Jahr vergleichen, Unterschiede wahrnehmen, dann gerne einen Kommentar dazu verfassen.
Mein Arbeitskollege hat sich gerade einen 4K Monitor für knapp 1000 Euro gekauft, der daddelt aus Zeitgründen nur ein paar Stunden die Woche.
Dabei hat der einen gammeligen Rechner, damit würde er hier nur belächelt werden.
Und ich habe jetzt auch einen 170hz WQHD gekauft, obwohl ich imemr noch meine alte Grafikkarte habe, die eigentlich nur noch für FullHD hohe Bildraten liefert.
Sogar in der Firma haben wir schon vor Jahren auf WQHD gewechselt, weil der zusätzliche Arbeitsraum trotz nur 80% mehr Pixel trotzdem mehr als doppelt so hoch sein kann, wenn viele Menüs und Symbolleisten einiges an Platz wegnehmen.
Ein Kumpel hat gleich zu Beginn vor Ewigkeiten schon auf WQHD gesetzt, danach habe ich selbst erst einige Zeit später einen neuen FHD mit 27 Zoll gekauft.
Der Kerl spielt überhaupt nicht, arbeitet damit nicht, der surft nur und schaut an dem Bildschirm TV am/im Bett.
Also selbst Leute, die nicht zur elitären PCGH-Forumsriege gehören (und die Zeitschrift noch nie gelesen haben oder überhaupt etwas anderes), kaufen mittlerweile anders als noch vor 5 Jahren.
Gaaanz tolle Einschätzung des Weltmarktes für Monitore :schief:
Womit habe ich deine Aufmerksamkeit verdient? Ich habe einen sehr, sehr breiten Tellerrand :D
Übringens danke, das Du in Deinem Post auch von WQHD ausführlich sprichst. Was ja meiner Argumentation entgegen kommt.
Gruß T.
 
Die nächste Generation ist genau so verloren, wie die aktuelle. Glaubt doch keiner ernsthaft, dass man die einigermaßen nahe der UVP wird kaufen können oder? Außer die setzen die UVP realisitscherweise gleich auf 200% der letzten Generation.

Ne ne Leute. Ich werde möglicherweise meine RTX3090FE dann irgendwann kurz vor dem Launch verticken, mit der gut erhaltenen GTX1080 weiterzocken und wieder auf ne FE hoffen, wie beim letzten Mal.

Der Teufel scheißt immer auf den größten Haufen. Bei meinem Glück bekomme ich die 4090FE auch wieder. :ugly:

Aber die Customs schreibe ich ab. Werden nicht für normale Preise oder überhaupt kaufbar sein. Viel Spaß.
 
Nun. Wenn die Karte angenommen 3500€ kostet, ist das machbar.
Zum einen habe ich noch die 1080Ti verbaut. Zum anderen geh ich arbeiten.
3500€ kann man zusammensparen. Je nach Verdienst natürlich.
Ein Schüler oder Student sieht das wohl anders.
Zum anderen reicht die Karte gewiss dann wieder seine 4-5 Jahre. Rechnet das pro Jahr um. :)
 
Wenn das so kommt mit Faktor 2...dann sehen all die Ethereum Miner nur noch $/€/£/¥... Die werden sofort alle GPU's die es gibt egalnzu welchem Preis kaufen. Faktor 2 für die heißt dann doppelter Profit! Wir Gamer werden definitiv wieder ins leere Glas schauen.
 
Gekauft!

Ich werde bei der neuen Generation von Nvidia wohl zuschlagen "müssen" und meine 2080 in Rente schicken. Mit 1049€ hätte ich jetzt kein sooo großes Problem. Günstiger wäre natürlich besser!

ich hab mir vor 2 wochen einen 4k monitor gekauft ?
zocke sit 2014 auf 4k. zurzeit einen 75" sony x90j tv an der 3090hängen. ist einfach ein traum diese größe und dann noch einscharfes bild bei 189cm diagonale. selbst mit dlss immer noch scharf und 0 probleme bei ausgeglichen
 
zocke sit 2014 auf 4k. zurzeit einen 75" sony x90j tv an der 3090hängen. ist einfach ein traum diese größe und dann noch einscharfes bild bei 189cm diagonale. selbst mit dlss immer noch scharf und 0 probleme bei ausgeglichen
Wäre bei meinem Sitzabstand von ca. 80cm etwas zu groß :D
Außerdem benötigt meine Frau den TV, wenn ich zocke :lol:
Gruß T.
 
Und dann schau´n mer mal was INTEL so mit ihren next Gen´s (Battlemage, Celestial und Druid) so reißt.
Der "kleinste" Vertreter (A 380) der kommenden (Alchemist) macht sich schon mal NICHT schlecht.
Und das Ganze bei 75 Watt (!) :daumen:


MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Sollte der Performancesprung größer als 50% sein (bei gleichem Verbrauch), werde ich versuchen wieder direkt upzugraden.
Solange die 450W nicht geknackt werden und der PCI-E5.0 Stecker nicht verwendet wird, brauche ich kein Netzteil Upgrade (SF750).

Ich zocke seit ein halbes Jahr auf einem OLED. Davor hatte ich IPS. Meine IPS hatten immer schlimmes Backlightbleed und graues Schwarz. Deswegen griff ich zum LG 48" CX OLED. Der kostete 1200€...
Ich wünschte zwar es gäbe einen kleineres OLED als 48", aber 4k bleibt. Ich merke deutlich die Texturschärfe zwischen 1440p und 4k.

Meine 3090FE habe ich theoretisch umsonst bekommen, indem ich zuvor zu einer 3080FE upgradete und die gebrauchten GPUs gut verkaufen konnte.

Was den Preis angeht, muss ich gucken, ob jemand meine 3090FE für UVP nehmen würde, dann hätte ich 1600€ für die neue Karte. :fresse:
 
Und dann schau´n mel mal was INTEL so mit ihren next Gen´s (Battlemage, Celestial und Druid) so reist.
Der "kleinste" Vertreter (A 380) der kommenden (Alchemist) macht sich schon mal NICHT schlecht.
Und das Ganze bei 75 Watt (!) :daumen:


MfG Föhn.
Och, jeder ist doch "arg/c" froh, wenn Intel überhaupt die Graka-Bühne betritt...

Gruß
 
Naja, die Leistung könnten wir ja schon gebrauchen... zumindest für Raytracing. Nehmen wir mal die gemunkelten Faktoren (oder am besten gleich mal den höheren, wenn wir schon dabei sind) und als Beispiel die aktuelle Cyberpunk-Version, die nun mit Raytracing nochmals ein wenig anspruchsvoller ausfällt...

Der Nachfahre der RTX 3090 würde von ~21 Fps in UHD mit 2,5-facher Leistung bei ca. 53 Fps landen, da könnte man dann noch immer DLSS gebrauchen - für alle kleineren GPUs sowieso.

Ein Nachfolger der RX 6800 XT würde dann in WQHD mit RT statt ~24 Fps auf ziemlich genau 60 Fps kommen, aber mit einer fetten Oberklasse-Radeon will man ja vielleicht auch UHD-Luft oder ähnliches schnuppern. FSR wäre da also auch noch gut zu gebrauchen, trotz massiver Leistungssteigerung.

Also klar, her damit... Dann könnte ich ja vielleicht tatsächlich Cyberpunk noch die kommende Grafikkartengeneration angehen.

Gruß,
Phil
 
Zuletzt bearbeitet:
Ich werde mir in jedem Fall eine 4090 holen, egal was sie kostet.
Stand heute, 22.2.22 16:09 Uhr werde ich vermutlich sie nicht kaufen.
Aktuell läuft nur ein Spiel mit maximaler Grafik (da gehört natürlich auch Raytracing dazu) zu schlecht. Das ist Cyberpunk. Wenn sich bis zum Release das nicht ändert habe ich (zum ersten mal seit ich PCs habe, das sind fast 30 Jahre) nicht das Bedürfnis aufzurüsten.


Das klingt so gar nicht nach mir ich weis...
 
Wenn ich nicht so viel VR benutzen würde, tät ich mich da @Blackvoodoo anschliessen. Solange ich nur nen 1440p Monitor habe kann ich im Grunde alles auf die Grafikkarte werfen und habe gut spielbare Bildraten, selbst mit Raytracing.
Aber selbst "nur" ne Index mit bissl höherem Supersampling bringt meine alte RTX2080 ins Schwitzen. Und das ding ist mit Shunt-Mods und Wakü voll ausgereizt. VR kriegt aber nunmal jede Grafikkarte in die Knie, da gibts eigentlich nie zuviel Performance.

Wird nen teures Jahr, denn wenn Sapphire-Rapids-X raus ist UND es nochmal so ein geiles Mainboard wie mein evga X299 DARK für den Sockel gibt, wird auch da nen Upgrade nötig. Eieieiei, Santander freut sich... XD
 
Immer dieses Glaskugelraten von diesen ach so tollen Sozialmedia 0815 Leuten...

Glaskugel an: Papier ist geduldig, am Ende sind es nur 40-50% mehr Leistung!
 
Zurück