Special 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti

... Richtig, NV maximiert die Marge wo es nur geht. ....
Ja, das sehe ich ja auch so, und trotzdem bieten die Karten viel. Ich hab mir die Tag in Ruhe die Chipdaten der letzten 80er Karten angeschaut, von 680, über 780, hin zu 980, 1080, 2080, 3080 hin zur 4080.

Der Sprung in der Chipgröße und der Transistorenanzahl mit Einführung von Raytracing zur 2080 war riesig und das kostet. Man darf darum die Preise heute nicht mehr mit den Preisen früher 1:1 vergleichen. Man bekommt viel mehr. Ob man das "braucht", ist für mich immer noch offen. Und ich würde mir wünschen, dass Nvidia die leistungsmäßig unteren Karten auch komplett ohne Raytracingeinheit verkaufen würde. Machen sie natürlich nicht, weil sie die Spieleentwickler hin zum Einsatz drängen wollen.

Langfristig könnte das Optisch wirklich schöne Dinge bringen. Ich warte da noch auf Star Citizen. Wird den Release dann zwar wieder 2 Jahre verzögern, aber genau da muss Raytracing rein!
Auch die 4070 ist nicht gut ausbalanciert. Der stünden 16 GB sehr gut und der 4060 Ti wiederum 12 GB.
Idealerweise schon, dann wären die Karten "rund", aber von dem, was da Nvidia anbietet, bleibe ich bei meiner Aussage. :)
 
Die eigentliche Frage ist, wie weit muss man mit den Settings runter, dass 12GB reichen? Von Max auf very High - High - med - low?
 
Klar, deshalb kann man nun jedem diesen "Test" hier an den Kopf werfen, der eine 12GB Karte empfiehlt.
Völlig undifferenziert und deplatziert mit 3 ausgewählten Kirschen in 4K mit max Settings inkl. RT+FG.
Du likest pauschale Falschaussagen und machst reißerische Tests. Das war die letzte PCGH die ich käuflich erworben habe.Anhang anzeigen 1450529
Was ist bloß Dein Problem? Regst Dich über Extrem-Beispiele auf?

Genau so, zeigt man aber Schwachstellen nun einmal!

Bei einem Auto-Crash-Test lasse ich das Auto auch mit 100 KmH in die Wand knallen und nicht mit 20 (was im Realverkehr sicher häufiger sein wird)! Man testest immer die Extreme und bricht es dann herunter!
 
Die eigentliche Frage ist, wie weit muss man mit den Settings runter, dass 12GB reichen? Von Max auf very High - High - med - low?

Wird auf das Spiel ankommen. RE4 sagt Dir ganz genau wann es eng werden könnte. Lässt aber alles darüber trotzdem zu. Bis das gepatched wurde, konnte man mit Texturen auf max. 12 GB-Karten wunderbar zum Absturz bringen. Selbst getestet, Eine 4070 Ti endete in einem D3D-Error, während eine gleich schnelle 3090 durchperformt hat. Und auch jetzt kann man sehen und fühlen, wenn man eine 4060 Ti 16 GB drin hat. Da ruckelt nix beim Übergang in andere Orte. Ne 4070 muss sich erst einruckeln. Otto-Normalo ohne Vergleichmöglichkeit merkt das nicht. Der Fachkundige mit etsprechenden Lagerbestand an Karten allerdings schon.
 
Die eigentliche Frage ist, wie weit muss man mit den Settings runter, dass 12GB reichen? Von Max auf very High - High - med - low?
Sehe ich auch so und hoffe. Darum würde es mich ja auch interessieren, wenn sich Raff dem Thema noch detaillierter annehmen würde. Es gilt, die Spieleeinstellungen zu finden, in denen der VRAM eben gerade noch nicht vollläuft. Keine Ahnung, was da hilft, vermutlich läuft es auf reduzierte Texturen, höheren DLSS-Faktor und weniger Raytraying hinaus. Aber alles in Maßen eingesetz, kann das, so hoffe ich mit meinen bescheidenen 12GB, erträglich bleiben.

Wir haben es immer geschafft, die Einstelelung so zu wählen, dass es einen guten Kompross gibt. Ich bin lange mit 6GB ausgekommen. Hakt dann hier und da, aber so ist das halt. Das sit unschön, mehr VRAM wäre klasse, aber man wird die Spiele zum Laufen bringen.
 
Diese willkürliche Einteilung in "Karte ABC ist eine Full-HD/WQHD/4K-Karte" ist doch auch nur Marketinggewäsch, um Flaschenhälse rechtfertigen zu können. Vergleich mal die Rohleistung einer 4070(ti) mit einer 3080 10GB, die ihrerzeit definitiv als 4K-Karte beworben wurde. Solange die reine Leistung des Chips stimmt, ist das absoluter Quatsch, die Performance in höheren Auflösungen mit zu wenig Speicher/zu schmaler Bandbreite wieder zu schmälern bzw. mit dieser künstlichen Einteilung schönreden zu wollen.
Genau das!
 
Ist das jetzt eine Scherzantwort...?
Was ist umständlich daran die Auflösung einzustellen?
Das Szenario ist etwas unglaubwürdig. Man kauft sich doch keinen 4k Monitor, um per DLSS auf FHD zu gehen. Eher WQHD, weil man die Vorteile von DLSS haben möchte, aber FHD doch nicht. Wem die Grafikkarte in der Zukunft abkackt und man noch zocken will - geschenkt. Aber soweit sollten wir noch nicht sein. Zumindest in der Regel. Außnahmen gibt es natürlich immer, die sich einen 4k Monitor kaufen, um damit in FHD zu zocken. Konstruiert bleibt es dennoch.
 
Wird auf das Spiel ankommen. RE4 sagt Dir ganz genau wann es eng werden könnte. Lässt aber alles darüber trotzdem zu. Bis das gepatched wurde, konnte man mit Texturen auf max. 12 GB-Karten wunderbar zum Absturz bringen. Selbst getestet, Eine 4070 Ti endete in einem D3D-Error, während eine gleich schnelle 3090 durchperformt hat. Und auch jetzt kann man sehen und fühlen, wenn man eine 4060 Ti 16 GB drin hat. Da ruckelt nix beim Übergang in andere Orte. Ne 4070 muss sich erst einruckeln. Otto-Normalo ohne Vergleichmöglichkeit merkt das nicht. Der Fachkundige mit etsprechenden Lagerbestand an Karten allerdings schon.
Und auf der anderen Seite zeigen viele Spiele, dass mit verbesserten Streaming auch weniger VRAM reicht. Man wird also imho einige nicht zu neue Spiele mal ansehen müssen und da mal schauen was bei den Settings fallen muss um das Ruckeln zu besiegen. Bei Clank vermute ich RTX off, was geradezu witzig wäre, wenn eine Geforce Raytracing aus machen muss damit der VRAM reicht.
 
Und auf der anderen Seite zeigen viele Spiele, dass mit verbesserten Streaming auch weniger VRAM reicht. Man wird also imho einige nicht zu neue Spiele mal ansehen müssen und da mal schauen was bei den Settings fallen muss um das Ruckeln zu besiegen. Bei Clank vermute ich RTX off, was geradezu witzig wäre, wenn eine Geforce Raytracing aus machen muss damit der VRAM reicht.

Auch da sehe RE4 beispielhaft. Wann zocken die Casual-Gamer solche Spiele? Bei Veröffentlichung. Die haben in der Regel nix von Patches, die Monate später kommen.

Auch einer der Gründe, warum AMD immer wieder Probleme hat. Day-one-support kann AMD nicht. Optimieren ja, aber ab Tag 1 laufen tut da selten was.
 
Casual Gamer zocken solche Spiele meist wenn sie im Sale sind. Aber es geht hier nicht darum 12GB zu rechtfertigen, es geht darum zu zeigen was der VRAM Mangel kostet. Muss dann jeder für sich entscheiden ob er 900 Euro für eine Karte ausgeben will, die evtl. nur FHD und med Details kann.
 
Das Szenario ist etwas unglaubwürdig. Man kauft sich doch keinen 4k Monitor, um per DLSS auf FHD zu gehen. Eher WQHD, weil man die Vorteile von DLSS haben möchte, aber FHD doch nicht. Wem die Grafikkarte in der Zukunft abkackt und man noch zocken will - geschenkt. Aber soweit sollten wir noch nicht sein. Zumindest in der Regel. Außnahmen gibt es natürlich immer, die sich einen 4k Monitor kaufen, um damit in FHD zu zocken. Konstruiert bleibt es dennoch.

Lese meine Kommentare nochmal genau.
 
Hab ich doch schon gesagt: NV kann ja Karten verscheuern bei denen der Kunde entscheidet welche Speichergröße er wählen möchte. Das geht doch bei dem ständig hier und her hoch und runter, rein und raus jetzt auch, nur viel umständlicher. Preisaufschlag und fertig. Stattdessen: Täglich grüßt das Marmeltier. :stupid:

Aber IHM nicht sagen. Der muss ja nicht zuviele Karten verscheuern.
 
Wie schaut es dann in spielbaren Bereichen in QHD mit dem Speicherbedarf aus, oder kauft heutzutage jeder eine 4070Super und betreibt sie in 4K mit maxed out Settings? Was leisten andere Karten? Das ist doch kein Test, das ist das Herauspicken von ein paar Werten und dann bisschen Text dazu um den Propellern Zucker zu geben. Eine einzige Einstellung würde das ganze schon wieder deutlich entschärfen, nur macht man damit eben keine Klicks.
Das sagt der, der mir Weismacht man kann keine AND Karte kaufen, weil zocken nur Spass macht wenn man RT maximiert, AMD User dürfen keine Regler bedienen?
Ausserdem habe ich auch schon vorher geschrieben, es wurde mit Dlss getestet.. Und ja ich zocke zum Teil auch in 4k mit fsr, soll es wirklich geben, man glaubt es kaum
 
Zuletzt bearbeitet:
Ich verstehe hier den einen oder anderen nicht. Das ist doch nur ein Zusatztest. Die üblichen benches zeigen doch genau das gewünschte, wie z.B. dass es in WQHD noch geht, in UHD manches Mal eben nicht. Der Test hier ist als Bonus zu verstehen, zeigt genau auf wie sich das äußern kann! und versucht auch gar nicht dies als übliche Standards zu verkaufen.
Warum wird die Arbeit die sich Raff gemacht hat nicht als solche gewürdigt, sondern einfach als Stimmungsmache abgewertet?
Man könnte ebenso gut fragen warum er sich solche Tests nicht angeschaut hast bevor er zu seiner 70er gegriffen hat.
Ich hab mir die 4080 geholt weil ich mehr RT Leistung haben wollte als sie die 6900XT hatte und die hat sie. Aber! es reicht nicht für mich. In AW2 packt die Karte unter PT so wenig fps, dass beim zuschalten von FG das Spielgefühl sogar schlechter wirkt auf mich. Reg ich mich deswegen auf? Nö. Warum auch? Jede Karte stößt irgendwo an ihre Grenzen und dank den Redakteuren hier, laufen wir da nicht blind in die Falle, sondern können gut kalkulieren.
 
Zuletzt bearbeitet:
Und genau das war die Idee. Steht ja auch alles explizit so im Artikel.
Wirkt aber nicht so, sieht man doch an den Reaktionen im Forum.
Hier herrscht ein völlig undifferenziertes, fast schon peinlich einfach gestricktes Meinungsbild. Sobald irgendwo in 4K Auflösung + RT ( DLSS spart nicht so viel Speicher ein) irgendwo der Vram limitiert und man um dort weiterzuspielen zu können man einen Regler benötigt, gibt es sofort einen riesen Aufschrei.

Kackt die 7800XT in jedem Spiel in RT auf max gegenüber der 4070 Super 50% in WQHD ab, ist das nicht schlimm, weil es gibt ja Regler und siehe da in 4K einige wenige Edge Cases in denen der Vram nicht reicht, daran zieht man sich dann hoch, anstatt das Gesamtkonstrukt zu bewerten.

Das kann man als Nachteil der GeForce akzeptieren, ganz klar, aber auch einordnen.
Und diese Einordnung lieferst du nicht, ansonsten würden nicht 90% des Forums so einen undifferenzierten Unsinn verzapfen. Das ist nirgends so schlimm wie hier.

Vram ist nun einmal nicht alles und wo die Konkurrenz in diesen Einstellungen steht, wird gar nicht beleuchtet, weil das Ergebnis nicht schmeckt.
Man kann nicht alles mit Vram zudecken und selbst wenn in 3 Jahren eine 7800XT dann mit RT vor einer 4070 Super liegt, weil letzterer der Speicher ausgeht, ist die Frage immer noch nach dem wie.
Die Standard-Benchmarks mit 20+10 Spielen in 4 Auflösungen gab's ein paar Tage vorher.
Und die haben ja gezeigt, dass 12GB Speicher noch für so gut wie alles reichen.
Gibt auch so schöne Tests wie von Hardware Dealz, die zeigen, dass in QHD noch gar nichts anbrennt, nicht mal ansatzweise.
Hätten wir geschrieben "Ab jetzt gehören 12-GiByte-Grafikkarten auf den Müll!", ohne weiteren Text, wäre das etwas anderes.
Sehe ich nicht viel Unterschied, vor allem nicht in der Reaktion der Leser. Fokus auf 4K, auf wenige Spiele mit max Settings klingt für mich maximal nach Clickbait und die Forenuser, besonders die AMD Nutzer nutzen es als dogmatisches entweder RT oder bessere Texturen Argument, ohne dass dies für die meisten Spiele oder Settings überhaupt zutrifft.
Da muss man sich überhaupt nicht anstrengen.
Einfach 4K nativ laufen lassen.
Dann spielt aber bitte auch so auf euren geilen Radeons und legt die gleichen Maßstäbe an. Da wird dann RT nicht wieder ausgeschaltet und dann wollen wir mal sehen. Einfach dann auch mit nativem 4K. Denn wer will schon Schönwettertests?
Alles wird in Zukunft ohne Verluste ausgemaxt, anstatt auf Vorteile und Nachteile halbwegs mit Sachverstand einzugehen.
Ein Tester kann nichts dafür, wie gut Leute die Tests verstehen.
Die 4070 Ti wird leider auch in den Settings mit dem ein oder anderen optischen Regler in 4K +RT hübscher + besser abliefern als eine 7900XT. Bis sich das ändert können gut und gerne noch Jahre vergehen. Vram ist nicht alles.
Keiner sagt, dass eure 12GB Karten jetzt auf den Müll gehören, aber der Test mit den bewusst! gewählten Extrembeispielen zeigt nun mal, wohin die Reise geht, in 2-5 Jahren.
Wow in 2 bis 5 Jahren? Soll ich so lange ohne RT Leistung und DLSS in QHD Leben bis irgendwann mal alles gut ist? Und ist dann in 3 Jahren alles vorbei und man kann die Karten wegschmeißen, oder wird dann RT erst so richtig auf den AMD Karten in Fahrt kommen?
Die nächsten 2 Jahre wird man damit keine nennenswerten Probleme haben, macht euch mal nicht ins Hemd.
Aber genau das wird so gesehen, obwohl es die Tests gar nicht zeigen.
Wir sind gerade erst bei der Ablöse der 8GB Karten. ( Kein UHD).
 
Zuletzt bearbeitet:
Man weiß beim Kauf schon, dass das Ding in 2 Jahren wieder ersetzt werden muss.
Und das ist leider deutlich zu kurz gedacht, denn Vram Bedarf hängt hauptsächlich auch von den Konsolen ab. Zu knappe Leistung wird für die die zumindest ein wenig Regler bedienen können der hauptsächliche Grund für einen Wechsel sein, auch auf einer Karte mit prallem Speicher.
NVidia weiß sehr wohl, dass man so viel Speicher brauchen wird.
Dafür liefern sie das bessere Upscaling und viel mehr RT Power.
Das fällt immer und immer wieder unter den Tisch.
AMD ist nicht unbedingt eine bessere Firma, sie machen diesbezüglich nur weniger Fehler und wirken kundenfreundlicher, halt sympatischer.
Wirken sie nicht. Die machen genau dasselbe.
 
Ehrlich gesagt verstehe ich deine Aufregung nicht ganz.
Es wurden doch nur eine 12GB mit einer 16 GB Versionen einer Karte verglichen um zu schauen, ob 16 GB Vorteile bringen, bzw. wann 12 GB an ihre Grenzen kommen.
Dafür wurden bewusst extreme Szenarien gewählt um die Anforderung der nächsten Jahre nachzubilden...

Das ganze hat erstmal nichts mit AMD zu tun (bei deren Karten wurde das auch schon gemacht), daher verstehe ich deine "aber AMD und RT und nochmal RT und nochmal AMD und nochmal RT..." Argumentation nicht.
Es geht nicht darum, ob AMD besser ist oder nicht, sondern darum, dass der Speicherbedarf nicht kleiner wird und man bei einer 800€ Karte einfach erwarten kann, dass es genug ist.
OB es heute und morgen genug ist, hat dieser Test zu zeigen versucht, mehr nicht.

Es wurde auch bewusst eine Nvidia Karte mit einer Nvidia Karte verglichen um diese dumme AMD Diskussion zu vermeiden. Hat natürlich nicht geklappt...

Dass du deine 12 GB Karte so vehement verteidigst ist zwar löblich, aber der Feind ist in diesem Fall die böse 4070ti Super. 😄
 
Dafür liefern sie das bessere Upscaling und viel mehr RT Power.
Das fällt immer und immer wieder unter den Tisch.
gerade das braucht doch auch zusätzlich speicher und mit weierentwicklung der technik wird es nicht weniger werden
also es sieht schon so aus als würde nv wollen, dass der speicher so bald wie möglich knapp wird, damit man sich eine neue karte kauft

nv geizt aber nicht nur beim speicher, sondern auch bei der anbindung
nicht mal die 4070TI hat 256bit.
ich behaupte mal, dass zB die rx580 so gut gealter ist, weil zum einen 8GB VRAM, zum anderen die 256bit anbindung und das war mal eine 250€ karte oder so.

aber muss jeder für sich selbstr entscheiden wie wichtig RT und DLSS ist. ich finde was nv in den letzten jahren macht einfach nur frech und sowas will ich nicht unterstützen
 
Zurück