Special Nvidia Geforce RTX 4070 im XXL-Test: Der neue Effizienzmeister

Du musst schon ganau das spielen was zu deren Argumenten passt.
Was für ein unsinniges "Argument". Selbst PCGH und andere Publikationen erachten 12 GB mittlerweile als Mindestmaß. In zukünftigen Spielen werden Entwickler die von der aktuellen Konsolengeneration für die Grafikeinheit reservierten 13,5 GB voll ausnutzen, da die letzte Generation ausgelaufen ist. Der Speicherhunger wird sich daher voraussichtlich über die Bank erhöhen. Aus dem Grund kann man sich selbst bei 12 GB VRAM schon streiten, ob das zukunftssicher ist.
Mit HL war wohl Hogwart Legends gemeint.
4K mit DLSS/Q und FG, sogar da reichen die 12GB.
Das stimmt einfach nicht. Zumindest bei mir in FHD hat HL mit DLSS/FG mehr VRAM gefressen (deutlich über 12 GB) als ohne DLSS/FG. FG benötigt schlicht eine gewisse Menge an VRAM. Die 12-GB-GPUs werden nicht ohne Grund nur als QHD-GPUs beworben - eben weil für UHD der VRAM (und die Anbindung) nicht ausreicht. Hierfür gibt's neben HL auch andere Beispiele - bspw. PT:R. Die VRAM-Bestückung ist einfach die Sollbruchstelle dieser Generation. 16 GB für die 4070 (Ti) GPUs und 20 GB für die 4080 (Ti) GPUs wären deutlich nachhaltiger gewesen.
 
Dann zeig halt mal Bilder...ich bin jederzeit bereit dazu und habe Screens.
Mit Raytracing hast Du in HL natürlich recht. Aber mit maximiertem Raytracing reicht auch die Leistung nicht...da juckt es mich nicht ob der VRam ausgehen würde.
Ohne Raytracing 80+ FPS bei max 140W in 4k/DLSS +FG...

1440p mit FG
 
Zuletzt bearbeitet:
Damals hab ich mir die 3070 geholt weil sie auf dem Niveau einer 2080ti war und hat somit meine 1080 ersetzt aber wenn man sieht das sie sogar unter der 3080 liegt, ist das wirklich ein Trauerspiel. Einziger Pluspunkt ist wirklich die Effizienz aber jeder der ein bisschen Ahnung hat, würde dann lieber zur 7900xt greifen.
 
Dann zeig halt mal Bilder...ich bin jederzeit bereit dazu und habe Screens.
Mit Raytracing hast Du in HL natürlich recht. Aber mit maximiertem Raytracing reicht auch die Leistung nicht...da juckt es mich nicht ob der VRam ausgehen würde.
Ohne Raytracing 80+ FPS bei max 140W in 4k/DLSS +FG...

1440p mit FG
Seufz...

Warum hast du dann nicht direkt gesagt, dass du auf RT (Nvidias main selling point, by the way...) verzichtest? Klar, dass 12 GB dann vielleicht noch gerade so reichen. Ob ich bei einer RTX-GPU allerdings auf die ersten beiden Buchstaben verzichten möchte - gerade bei den GPU-Preisen?
 
Seufz...

Warum hast du dann nicht direkt gesagt, dass du auf RT (Nvidias main selling point, by the way...) verzichtest? Klar, dass 12 GB dann vielleicht noch gerade so reichen. Ob ich bei einer RTX-GPU allerdings auf die ersten beiden Buchstaben verzichten möchte - gerade bei den GPU-Preisen?
Nur weil RTX im Namen steht, bedeut das ja noch lange nicht... Raytracing allways on. Wo es performant möglich ist gerne.
Und es ist ja nicht so, dass es nur Raytracing on/off gibt.
Ausserdem muss ja jeder selber wissen, ob es ihm Wert ist den Obolus für eine leise performante Karte mit wenig Verbrauch zu entrichten.

Was ich auch immer lustig finde...Du spielst mit einer RTX 4080 in 1080p und @Oi!Olli mit seiner RX 7900 XT (soviel mich erinnern kann) ebenfalls...alles kein Problem und es wird jeder seine Gründe dafür haben.
Mit der RTX 4070/TI wenn man aber anführt, dass man 1440p spielt, werden einem 4K Benches unter die Nase gerieben. Da ist es uninteressant ob man gar kein 4K nutzt, oder überhaupt das Spiel zocken will.
Haters gonna hat....
 
Zuletzt bearbeitet:
Nur weil RTX im Namen steht, bedeut das ja noch lange nicht... Raytracing allways on. Wo es performant möglich ist gerne.
Und es ist ja nicht so, dass es nur Raytracing on/off gibt.
Ausserdem muss ja jeder selber wissen, ob es ihm Wert ist den Obolus für eine leise performante Karte mit wenig Verbrauch zu entrichten.

Was ich auch immer lustig finde...Du spielst mit einer RTX 4080 in 1080p und @Oi!Olli mit seiner RX 7900 XT (soviel mich erinnern kann) ebenfalls...alles kein Problem und es wird jeder seine Gründe dafür haben.
Mit der RTX 4070/TI wenn man aber anführt, dass man 1440p spielt, werden einem 4K Benches unter die Nase gerieben. Da ist es uninteressant ob man gar kein 4K nutzt, oder überhaupt das Spiel zocken will.
Haters gonna hat....
Da stimme ich zu.

Unter WHQD wird sie sicher für 2-4 Jahre gut reichen. Unter FHD würde ich ihr auch 6-8 zutrauen, wenn man Ende der Nutzungsdauer auch mit medium Settings leben kann.
 
Zuletzt bearbeitet:
Was für ein unsinniges "Argument". Selbst PCGH und andere Publikationen erachten 12 GB mittlerweile als Mindestmaß. In zukünftigen Spielen werden Entwickler die von der aktuellen Konsolengeneration für die Grafikeinheit reservierten 13,5 GB voll ausnutzen, da die letzte Generation ausgelaufen ist. Der Speicherhunger wird sich daher voraussichtlich über die Bank erhöhen. Aus dem Grund kann man sich selbst bei 12 GB VRAM schon streiten, ob das zukunftssicher ist.

Das stimmt einfach nicht. Zumindest bei mir in FHD hat HL mit DLSS/FG mehr VRAM gefressen (deutlich über 12 GB) als ohne DLSS/FG. FG benötigt schlicht eine gewisse Menge an VRAM. Die 12-GB-GPUs werden nicht ohne Grund nur als QHD-GPUs beworben - eben weil für UHD der VRAM (und die Anbindung) nicht ausreicht. Hierfür gibt's neben HL auch andere Beispiele - bspw. PT:R. Die VRAM-Bestückung ist einfach die Sollbruchstelle dieser Generation. 16 GB für die 4070 (Ti) GPUs und 20 GB für die 4080 (Ti) GPUs wären deutlich nachhaltiger gewesen.
Wie hast du das festgestellt, das HL in FHD mehr als 12GB frisst?

PCGH hat das doch auch getestet in einem Spezial. Da kam doch bei der RTX3080(ti) 12gb glaube ich Frametimeausreißer und bei der 4070ti nicht, ich meine sogar in 1440p. Da wird wohl der Speicher noch etwas anders organisiert.
 
Abgesehen davon, muss es nicht immer max Setting sein. Wer max everything will kauft sowieso jede Generation und bis zur 5070 werden die 12GB in 95% der Fälle passen.

Für die Leute, die die Karte länger nutzen wollen (ich habe jetzt auch eine 4070ti bestellt) ist am Ende die Frage was mehr beeinträchtigt. Der VRAM bei der Geforce oder die Raytracingleistung bei der 6900. Muss jeder für sich entscheiden und beide Lösungen können Sinn machen.

Und falls jemand fragt warum gerade ich eine 4070ti gekauft habe.

Weil die Frau sagt: FHD Minecraft RTX 24 chunks mit +60FPS sind das Ziel und das ist bei der 7900XT knapp:


Das ist keine generelle Empfehlung für die Geforce, aber jeder muss halt für sich entscheiden was für ihn/sie wichtig ist.
 
Also wirklich begeistert bin ich nicht, das war aber nach den Teasern auch absolut zu erwarten.

Warum ich nvidia interessant finde, ist einzig und allein das raytracing. Und die aufgrund der besseren Effizienz wohl möglich kleineren Bauformen im vgl zu den starken 6000ern von AMD.

Denn auch wenn es immer wieder gute Angebote gibt für ne 6950XT, sind das für mich leider Karten, die einfach nicht in mein Gehäuse passen.

Ich habe maximal 310mm länge und 50m Höhe zur Verfügung. Da werden obere mittelklassekarten halt interessant.

Aktuell würde ich mir wohl lieber ne 7900xt im Referenz Design holen oder darauf hoffen, dass es ne 7800xt ebenfalls im gleichen Referenz Design wie die 7900xt gibt.

Trotzdessen, dass mir raytracing wichtig ist, möchte ich eher bei AMD bleiben, weil ich die treiberseitig inzwischen richtig gut finde und weil viele neue Features auch immer abwärtskompatibel angeboten werden.

Für mich heißt das, abwarten, was FSR3 und ne 7800xt kann. Bis dahin geht's preislich evtl auch noch etwas runter.

Ne Generation bei nvidia aussetzen und darauf hoffen, dass dann ne 5070 ein besseres Preis-Leistungsverhältnis bekommt macht keinen Sinn. Da würde ich jetzt mal die Leistung einer 4070ti sehen für eine UVP von 700-800€. Als 4060ti würde ich die 4070 auch nicht bezeichnen, denn dafür stimmt der Preis halt gar nicht mehr.
 
Nur weil RTX im Namen steht, bedeut das ja noch lange nicht... Raytracing allways on. Wo es performant möglich ist gerne.

Mit anderen Worten. Ich muss mit einer 900 €-Grafikkarte Abstriche machen.

Ich finde es halt peinlich für den Preis bereits jetzt bei den Texturen runterregeln zu müssen. Das empfinde ich auch schon bei einer knapp 700 € teuren Grafikkarte als peinlich für WQHD. Insbesondere, wenn man berücksichtigt, dass die Rohleistung an sich vollkommen ausreichend ist für RT + Max. Details.

Vor allem weil RE4 sich direkt mit einem D3D Error verabschiedet. Speichermanagemet ist wohl nicht vorgesehen. Das kreide ich dem Entwickler an, aber auch Nvidia. AAA-Titel gehören getestet und gepatched treiberseitig. Der typische DAU ist damit doch vollkommen überfordert.

Aber jeder wie er will, greife nun wieder eine 4090 aus dem Regal, auch wenn mir der trotz UV höhere Stromverbrauch auf den Sack geht. Wobei es mich doch irgendwie juckt mal die Intel 770 16 GB aus dem Regal zu holen und einzubauen.
 
Ich sehe 12GB wenn überhaupt eher als eine Lösung für FHD.
Es ist schon irgendwie witzig. Ada kommt mit Frame Generation daher, dass aber VRAM frisst. Raytracing benötigt ebenso VRAM, obwohl es gleichzeitig NVIDIA Land sei. Wenn man aber Ultra Texturen und Raytracing haben möchte, geht in Resident Evil 4 Re in FHD bei 12GB der VRAM aus.
Das Trostpflaster ist, dass selbst die PS5 nicht beides gleichzeitig beherrscht und sie der kleinste technische Nenner ist, an der man sich in dieser Konsolengeneration orientieren wird. Sprich 12GB werden für diese Konsolengeneration vollkommen ausreichen. Es gibt momentan noch wenig Spiele, in denen Raytracing einen echten optischen Mehrwert bietet. Es ist auch kein Problem die Texturen herunter zu stellen, wenn sie ab Mittel nicht so lächerlich hässlich aussehen, wie in The Last of Us.

Mal eine Frage in die Runde: Wie sehr steigt eigentlich der VRAM Verbrauch, wenn man von FHD auf WQHD wechselt?
Soweit ich das Verstanden habe, haben Raytracing, Frame Generation und die Textureinstellungen einen größeren Einfluss auf den VRAM Verbrauch als der Wechsel von FHD auf WQHD.
 
Sehr aufwendiger Test mit viel Arbeit, dafür herzlichen Dank an Raff! Ein rundes Gesamtpaket, wenn...ja wenn mal wieder nicht dieser völlig absurde Preis verlangt werden würde und mehr VRAM drauf wäre. Für knapp 700 Euro bekomme ich lediglich ein knapp 50% Performanceupgrade zu meiner alten 2080. Zocke in WQHD. Ich sitz das weiter aus. Denn hier überwiegen keine Glücksgefühle mehr beim Kauf wie früher, sondern eher der fade Beigeschmack, vor lauter Kompromissen über den Tisch gezogen zu werden...
 
Wenn ich mir überlege das nVidia hier die Kraft bzw. Macht eines in (Richtung gehenden) doppelten Voll Node Sprungs hatte, von 8nm Samsung auf TSMC 5nm (N4 Marketing Name). Dazu noch bei der jetztigen 4070 aka einem beschnittenen GA104, eine Größenreduktion von rund 400mm² auf 295mm² hat, ist die Karte als Gesamtpaket noch frecher in meinen Augen, es ist beinahe der kleinste Chip den nVidia unter diesem Namen verkauft hatte bisher...

Die Grafik macht das ganze nochmal etwas offensichtlicher in meinen Augen, besonders mit der leicht provokanten Aussage von einigen hier, dass Namen ja nur Schall und Rauch sind in Verbindung mit nVidias Chip Topologie.
(Grafik hatte ich aus Jucks mal fürs PCGH Discord gemacht)
 

Anhänge

  • 192.168.0.216.JPG
    192.168.0.216.JPG
    350,7 KB · Aufrufe: 67
Zuletzt bearbeitet:
Wie hast du das festgestellt, das HL in FHD mehr als 12GB frisst?
RTSS.
Es ist schon irgendwie witzig. Ada kommt mit Frame Generation daher, dass aber VRAM frisst. Raytracing benötigt ebenso VRAM, obwohl es gleichzeitig NVIDIA Land sei. Wenn man aber Ultra Texturen und Raytracing haben möchte, geht in Resident Evil 4 Re in FHD bei 12GB der VRAM aus.
Das Trostpflaster ist, dass selbst die PS5 nicht beides gleichzeitig beherrscht und sie der kleinste technische Nenner ist, an der man sich in dieser Konsolengeneration orientieren wird. Sprich 12GB werden für diese Konsolengeneration vollkommen ausreichen. Es gibt momentan noch wenig Spiele, in denen Raytracing einen echten optischen Mehrwert bietet. Es ist auch kein Problem die Texturen herunter zu stellen, wenn sie ab Mittel nicht so lächerlich hässlich aussehen, wie in The Last of Us.

Mal eine Frage in die Runde: Wie sehr steigt eigentlich der VRAM Verbrauch, wenn man von FHD auf WQHD wechselt?
Soweit ich das Verstanden habe, haben Raytracing, Frame Generation und die Textureinstellungen einen größeren Einfluss auf den VRAM Verbrauch als der Wechsel von FHD auf WQHD.
PS5 und Xbox Series X reservieren 13,5 GB ihrer shared memory für Spiele. Wie dann nur 12 GB nach vollständiger Ablösung der letzten Konsolengeneration - gerade mit besser Qualität und besseren Features auf dem PC - ausreichen sollen, ist mir ein Rätsel.
 
Zurück