News Geforce RTX 4070 Super schlägt Geforce RTX 4070 in ersten Benchmarks um 15 bis 19 Prozent

Wow, und die RTX 4070 liegt mit DLSS Performance vs. FSR Qualität in RT 80% vorne.
Was helfen mir da die 3% mit FSR Qualität vs. DLSS Qualität?
CB schreibt ja selbst, dass man FSR weder in Full HD noch WQHD überhaupt einschalten soll, während DLSS noch gute Ergebnisse bringt. 50 Euro Ersparnis für 3% mehr Rasterleistung ist etwas dünn, wenn du mich fragst.
80% ? das ist dann aber die große Kirsche, die Du da rauspickst... in der Regel ist der Unterschied nicht ansatzweise so krass.

CB schreibt, das man FSR1 nicht einschalten soll... FSR2 und FSR3 hingegen schon
 
Hast du bei PCGH eigentlich eine Anstellung als berufsmäßiger Falschinterpretierer?
Das sind halt die drei Superkräfte des DoctorChandra: selektiv lesen, selektiv verstehen, selektiv zitieren.

Und falls das noch nicht reicht, um sich lächerlich zu machen, kommt das beliebige Vermengen von Dollar und Euro, Ladenpreis und Launch-UVP sowie Gegenwart und Zukunft dazu. Die Wunschrealität muss sich doch irgendwie zurechtkonstruieren lassen! :lol: :lol: :lol:
 
80% ? das ist dann aber die große Kirsche, die Du da rauspickst...
Ach was? Genau das sollte es doch darstellen.
Jeder pickt sich immer die Kirschen und Vorteile von XY und ignoriert anderes.
CB schreibt, das man FSR1 nicht einschalten soll... FSR2 und FSR3 hingegen schon
Bei einer geringeren Ziel-Auflösung als Ultra HD tut sich FSR Super Resolution deutlich schwerer als DLSS. In Full HD ist von FSR meistens abzuraten und in WQHD müssen selbst mit FSR Quality größere Einbußen in Kauf genommen werden
Wie gesagt, von der Leistung/Qualität ist es bei AMD dünn. Dafür gibt es eben mehr Speicher und weniger Preis.
Dann kann doch jeder für sich entscheiden was er möchte.
 
Es ist eigentlich noch eher die Ausnahme, dass 8 GB Ram in WQHD nicht reicht. Ansonsten gibts ja auch noch Medium Settings, wo man teilweise keine unterschiede zu Ultra erkennt. Aber natürlich ist mehr immer besser.
Wenn man keine Ansprüche hat, reichen 8GB mit WQHD sicher noch 5 Jahre.
Wenn man ordentlich zocken will, am PC sind 8GB schon lange am Ende. Far Cry 6 will mit HD Texturen Packet 16GB Vram.
AC Odyssey und Origins fressen auf Ultra auf WQHD 8GB voll und es kommt random im Spiel zu freezes von 1 bis 3 Sekunden nach einiger Zeit. Und die Spiele sind schon etwas älter.
DLSS/Raytracing brauchen auch Vram. Ich halte selbst 12GB für zu wenig. 16 sollten schon sein. Besser 24 oder noch mehr. Für exzessives Modding kann man gar nicht genug Vram haben.
Oder man ballert seine Spiele mit DSR oder ähnliches von WQHD auf 4K/5K. Das brauch Vram.
 
Wenn man keine Ansprüche hat, reichen 8GB mit WQHD sicher noch 5 Jahre.
Also nur noch 2D Spiele spielen ?
Es gibt schon Spiele, die in 900p mit niedriger Grafik mit 8GB zu wenig haben...

Die 3060 mit 12GB ist am unteren Ende 290€ zu haben, als die billigste Karte mit über 8GB VRAM.
Eine RTX 4070 bekommt man derzeit ab 580 Euro.
Der Preis soll ja nochmal um (mind) 50€ fallen.
 
Zugegeben, ich persönlich habe keinen direkten Vergleich zwischen 12 und 16GB VRam-Karten!
Ich muss mich daher auf die Aussagen von anderen, wie PCGH verlassen. Da gab es doch sogar ein schönes Video zu.
Wenn ich mich recht entsinne, gab es bei einigen 2023'er AAA-Titeln mit 12 GB VRam "Texturen-Matsch" oder einen vollständigen Absturz. Und performte im RE4-Remake nicht teilweise die 4060Ti-16 GB allein aufgrund des VRams besser als eine 4070?

Ich habe wegen des DLCs mal wieder Cyberpunk heraus gekramt. Ich spiele es mit einer 7800XT auf 4K, natürlich mit FSR, mit zwischen 100 und 120 FPS. Die VRam Belegung schwankt dabei zwischen 10 und 14 GB.

Bei einer 4070 müsste ich daher wohl mit Nachladerucklern leben oder die Details weiter reduzieren. Ob das von der Bildqualität her auffallen würde, sei mal dahingestellt. Trotzdem wäre es schade, da die GPU der 4070 nicht in volles Potential könnte.
Ja, stimmt. Die 12GB laufen ab und zu mal voll bei bestimmten Spielen.

Es ist, wie bei den Radeon Grafikkarten. Der Besitzer muss warten bis die Spiele optimiert werden. Diese sind nicht gleich "out of the Box" perfekt spielbar.

Beispiel Alan Wake 2: Radeon Grafikkarten stellen das Spiel (endlich) nach 2,5 Monaten Optimierungsarbeit ordentlich da.

Fakt ist: Wer wenig Geld ausgibt (RTX 4070) oder eine Feature-arme Grafikkarte kauft (Radeon), der muss sich gedulden bis die Spiele laufen.

Ist das schlimm? Ich denke nicht, dafür gab es einen geldwerten Vorteil in Form eines günstigeren Kaufpreises.
 
Somit hast bei nur max. 19 % Leistung + sogar ein schlechteres PL Verhältnis (wie bereits schon geschrieben).
Ja, richtig, die 4070 Super leistet mehr als die 4070 und sie kostet auch mehr. Und ja, der prozentuale Preisaufschlag wird (insbesondere im Vergleich zur preisgesenkten 4070) vermutlich über dem prozentualen Leistungsaufschlag liegen. Aber ich verrate dir ein großes Geheimnis: Das ist normal. Das war schon immer so. Auch bei AMD. Je leistungsfähiger Karten werden, desto stärker muss zusätzlicher Leistungsgewinn überproportional teuer bezahlt werden. Aber schön, dass das jetzt auch bei dir angekommen ist.

Der entscheidende Punkt ist, dass sowohl die preisgesenkte 4070 als auch die 4070 Super ein besseres Preis/Leistungsverhältnis aufweisen (oder extra für dich: "aufweisen werden, wenn es so weit ist") als die bisherige 4070 zu ihrem alten Preis. Alles andere interessiert keine Sau.
 
komisch, bei mir geht mit DLSS der VRAM-Bedarf zurück. Erst FG braucht wieder ca. 0,5-1 GB mehr bei mir.
Wenn man bei WQHD DLSS/FSR Quality einstellt, wird intern nur mit FHD Auflösung gerechnet, sprich der VRAM Bedarf sinkt. Das Einschalten von DLSS kostet aber auch VRAM und bei FG müssen die berechneten Bilder ja irgendwo gespeichert werden. Raytracing kostet ebenfalls VRAM.

Vor allem hat sich das mit der "normalen" 4070 eh erledigt (EOL), wenn ich mich recht entsinne ... :ugly::bier:
Stand jetzt werden nur die 4070TI und die 4080 ersetzt. Die 4070 bleibt bestehen.
 
Zugegeben, ich persönlich habe keinen direkten Vergleich zwischen 12 und 16GB VRam-Karten!
Ich muss mich daher auf die Aussagen von anderen, wie PCGH verlassen. Da gab es doch sogar ein schönes Video zu.
Wenn ich mich recht entsinne, gab es bei einigen 2023'er AAA-Titeln mit 12 GB VRam "Texturen-Matsch" oder einen vollständigen Absturz. Und performte im RE4-Remake nicht teilweise die 4060Ti-16 GB allein aufgrund des VRams besser als eine 4070?

Ich habe wegen des DLCs mal wieder Cyberpunk heraus gekramt. Ich spiele es mit einer 7800XT auf 4K, natürlich mit FSR, mit zwischen 100 und 120 FPS. Die VRam Belegung schwankt dabei zwischen 10 und 14 GB.

Bei einer 4070 müsste ich daher wohl mit Nachladerucklern leben oder die Details weiter reduzieren. Ob das von der Bildqualität her auffallen würde, sei mal dahingestellt. Trotzdem wäre es schade, da die GPU der 4070 nicht in volles Potential könnte.
4070ti Cyberpunk in 1440p mit alles Maxed und Path Tracing, läuft...ohne Ruckler.

Das es ein, zwei Spiele gibt ok, ist bekannt, das es aber in der Masse ein Problem wird...
 
Schön zu sehen, dass die 4070S etwas mehr Leistung hat, wohl auch minimal spürbar. Mehr wirds aber auch net sein.

Vermutlich aber spürbarer als es bei der 4070ti S und 4080S sein wird. Naja

Wenn die 4070S nun 16GB bekommen hätte, dann wäre sie ein schönes Upgrade.

Aber in meinen Augen ist es immer noch eine überteuerte 12GB Karte. Und auf lange Sicht wird sie schlechter altern und deutlich an Puste verlieren...
Siehe GTX970, siehe GTX1060 6GB vs. 580 8GB, siehe 3070 8GB vs 6800 16GB....alle ähnliche Leistung, jedoch sind die NV Pendants durch ihren kleineren VRAM mittlerweile deutlich im Nachteil. Gibt ja genug Tests dazu...prominentester war oder ist ja das HUB Video zu 6800 16GB vs. 3070 8GB in dem die NV Karte auch unter RT Titel gegen die 6800 abschmiert. Hier limitieren gnadenlos die geringen VRAMs.

Bei einer 12GB Karte im Preisbereich von 300-450€ kann ich es ja noch verstehen, wenn es 12GB sind. Aber bei einer 650€+ Karte ist das zu viel (bzw. zu wenig) des Guten.
So muss man eben dann schon 900€ für eine 16GB Karte hinblättern. Ist den meisten einfach zu teuer....
 
Zuletzt bearbeitet:
Ja, richtig, die 4070 Super leistet mehr als die 4070 und sie kostet auch mehr. Und ja, der prozentuale Preisaufschlag wird (insbesondere im Vergleich zur preisgesenkten 4070) vermutlich über dem prozentualen Leistungsaufschlag liegen.
Nix anderes hab ich geschrieben/behauptet !
Schön das es jetzt endlich angekommen ist ... :daumen:
 
@Govego Ja, das ist mir klar, da waren nur etwas viele andere Antworten dazwischen, als generalisiert gesagt wurde, DLSS benötigt mehr VRAM. Was so per se nicht stimmt. es kommt drauf an, welches Feature man von DLSS nutzt.

Tatsächlich ist die Auflösung sogar noch geringer als FullHD. Gab da auch mal nen ARtikel bei PCGH
 
Zurück