News Geforce RTX 4070 Ti: Leak mit 3DMark-Performance und Bild der GPU

Keine Ahnung was ihr immer mit euerm VRam habt, scheinbar zockt hier jeder in 4K und alles auf Ultra!! Ich hatte hatte von 2020-2021 ne 3080ig am laufen, spiele in 5120x1440 und stand vielleicht ein oder zweimal vor dem Problem (was eigentlich kein wirkliches Problem ist) das der Speicher gen Maximum lief. Allerdings fehlen zu diesem Zeitpunkt auch schon die nötigen FPS, sodass man automatisch die Grafikeinstellungen zurückschraubt und dann auch der VRam kein Problem mehr darstellt. Und ne 6900XTX hatte zwar mehr VRam, konnte aber auch nicht wirklich besser performen. Also in meinen Augen ist diese "Zu wenig VRam " Diskusion ganz schönes Geschwätz und für viele AMD Jünger noch der einzige Grund auf Nvidia rumzumeckern.
Das ist meine persönliche Meinung und es muss sich keiner angegriffen fühlen. Guten Morgen ☕
Und ja, alle aktuellen Karten sind zu teuer...
Mit genug VRAM ist aber zumindest die Texturenqualität praktisch performanceneutral. 12GB halte ich für WHQD für knapp ausreichend, 16GB dürften auch für 4k meist reichen. Mit 20+ ist man immer sicher.

Wenn man den Preis zahlen will, dann dürfte die 4800 momentan das rundeste Paket sein. Mittelfristig wird man aber auch mit den AMD Karten nichts falsch machen, wenn die Treiber erstmal ausgereift sind, dürfte da noch einiges an Leistung kommen und die Probleme verschwinden. (Hotspotproblem mal ausgeklammert)
 
Ich liebäugle auch mit einer 4080ig, auch wenn ich eigentlich mit meiner 3080ti noch sehr gut bedient bin. Die gebotene Leistung zum Verbrauch bei der 4080ig find ich wirklich Top und wenn sie jetzt noch 100-150€ im Preis sinkt, werd ich zuschlagen.
 
Meine Meinung in 2 Worten (kann auf jedes Modell jeden Herstellers aktuell bezogen werden): Zu teuer.

Ich zahle die höhere Leistung der neueren Generationen nicht in absoluten Preisen in Relation zur Leistung zur Lesitung der Vorgängergenerationen (das ist jetzt überspitzt gesagt, aber ihr versteht, was ich meine).

Würde ich eine Karte der aktuellen Generation kaufen würde ich es ja gutheißen, dass die nächste Generation, sollte sie wieder 50% schneller sein in 2 Jahren, wieder 50% mehr kostet als die Vorgängermodelle. Eine 5070 dann für 1.500 €? Viele möchten das wohl so. Gaming am PC soll wohl elitär werden. Dann viel Spaß auf den leeren Servern der Zukunft, wenn sich nur noch Großverdiener eine Grafikkarte leisten können. Ich bin raus bei dem Spiel (pun intended).

Sollte mir meine RTX 2070 S irgendwann verrecken wird wieder meine alte GTX 770 mit 2 GB reingeschraubt (habe keine integrierte Grafikeinheit). Bei dem Wahnsinn mache ich nicht mit.

Dass die Topmodelle hirnrissige Preise hatten (Titans als auch z.B. die xx90er Modelle) fand ich immer okay. Das waren die Enthusiastenkarten mit zum Teil geringfügig mehr Leistung für den doppelten Preis. Aber man hatten dann das technisch Machbare.

Jetzt, wo die Volumenkarten aber Preise bekommen die so hoch sind wie 80% des Preises meines gesamten Rechners (inklusive Grafikkarte!), da hört es einfach auf. Punkt.
 
Zuletzt bearbeitet:
Dumme Frage, was zwingt Dich so eine teure Karte zu kaufen?

Eine theoretische Geforce 6050 könnte 200% Leistung der 2080S bringen und 400-500 Euro kosten.
 
Sollte mir meine RTX 2070 S irgendwann verrecken wird wieder meine alte GTX 770 mit 2 GB reingeschraubt (habe keine integrierte Grafikeinheit). Bei dem Wahnsinn mache ich nicht mit.
Na dann viel Spaß damit bei deinem 49er Moni.....der auch nicht grad günstig war :rollen:,
aber zum Glück kann man den ja auch auf 800x600 runterskalieren :haha:
 
Also in meinen Augen ist diese "Zu wenig VRam " Diskusion ganz schönes Geschwätz und für viele AMD Jünger noch der einzige Grund auf Nvidia rumzumeckern.
Das wird ja auch von PCGH schön befeuert.
Wenn Du keine 4K Texturen in 1080/1440p nimmst, dann hast Du ein matschiges Bild. Einfach lächerlich.
Die meisten würden nicht mal erkennen wenn nur eine Stufe runtergestellt wird.
Und genau die Leute, die meinen da wäre ein großer Unterschied, erkennen komischerweise keinen Unterschied zwischen Raytracing on und off...

K1600_Cyberpunk 2077_2022.12.31-09.00.JPG K1600_RT ultra.JPG

...ich würde es ja gerne nutzen....nur ist mein 16GB Tretroller zu lahm dafür.
Folglich muß ich hier genauso einen Kompromiss finden wie mit der RTX 3070.
 
@DaHell63 : Das hat schon was für sich, wahre Worte.

Was macht eigentlich Gronkh auf dem RayTracing On Bild (Mitte Bildschirm)? Oder ist der gar nicht in dem Spiel mit drin? Schönen Tag noch. :D
Dumme Frage, was zwingt Dich so eine teure Karte zu kaufen?

Eine theoretische Geforce 6050 könnte 200% Leistung der 2080S bringen und 400-500 Euro kosten.
Ignoriert man Features und Effizienz, müsste man leicht oberhalb von 3090 Ti und 7900 XT herauskommen und leicht unterhalb der 4080 und 7900 XTX: Das ergäbe in etwa eine 2080 Super 200%, es sei denn einem schwebt da ein anderer oder kein Vergleich vor.

Eine theoretische Geforce 6050 ist gerade nicht verfügbar und wenn man sowieso fröhlich Ohren schneiden muss um nicht geplündert zu werden, lohnt es sich wohl nach einem anderen Modell Ausschau zu halten, quasi wenn das Warten unerträglich wird oder die Vorfreude zu groß. Das passiert aber nicht unbedingt in der gewünschten Preis- und Leistungsklasse; es lohnt sich nach Offsets Ausschau zu halten.
Eine 5070 dann für 1.500 €? Viele möchten das wohl so.
Kauft niemand von Scalpern und fliegt uns die Hyperinflation nicht um die Ohren, wird es so schlimm nicht kommen. Irgendwie habe ich das Gefühl Lisa Su und Jensen Huang haben ein Gewissen, weshalb die Preise auch mit besiegten Scalpern nicht ins Unendliche steigen würden, jetzt gerade aber eine Notwendigkeit darstellen, damit wir wenigstens Neuware kaufen können. Wir sitzen ja alle im gleichen Boot und sollten aufeinander achten. Da die 4070 Ti mich völlig überrascht, wäre sie das obere Limit und ich würde auch mehr als 700€ zahlen, die dem sanity check von Raff standhalten würden. Wir alle haben bei den Einkaufspreisen einstecken müssen, auf die eine oder die andere Art.
Sollte mir meine RTX 2070 S irgendwann verrecken wird wieder meine alte GTX 770 mit 2 GB reingeschraubt (habe keine integrierte Grafikeinheit). Bei dem Wahnsinn mache ich nicht mit.
Gute Einstellung. Ich würde sie aber ausbauen, sobald die integrierten Grafikeinheiten der Prozessoren genauso schnell werkeln wegen der Effizienz: Da bekam ich nie Probleme mit. Die bildlich gesehen Intel HD Gamer haben das Chaos alles ausgehalten und können ruhig aufrüsten mit RTX 4000 und was da noch kommt mit AMD Navi32 und Navi33. Wir kriegen ja mehr, aber wenn wir den Bogen überspannen mit Boykott, sinken die Preise zu schnell und es wird wieder alles weggekauft und dann teuer wieder gekauft und zwar gebraucht: Das bringt nichts. Auch 3000'er oder AMD 6000 kaufen bedeutet, den Herstellern Geld zu geben. Macht es genau dann, wenn ihr es guten Gewissens tut.
Gaming am PC soll wohl elitär werden.
Nur wenn man Schrottcode Spiele nicht ignorieren möchte. Die RX 6400 Preise sind gerade ganz gut und damit kann man Half-Life 2 in 8K bei 200 FPS und 43 Watt spielen. Ich zum Beispiel stehe auf visuelle Novellen und arbeite darauf hin, für so etwas mehr Zeit zu finden. Da kann man richtig was lernen. Rumballern können wir fast alle. :daumen:
Jetzt, wo die Volumenkarten aber Preise bekommen die so hoch sind wie 80% des Preises meines gesamten Rechners (inklusive Grafikkarte!), da hört es einfach auf. Punkt.
Mittelklasse maximal ist schick, die kommt aber erst noch auf den Markt. Da freut sich das PC Sparschwein, wenn man ihm denn Zeit gibt sich füllen zu lassen.
 

Anhänge

  • You took one for the team. Cloud Strife.png
    You took one for the team. Cloud Strife.png
    2,2 MB · Aufrufe: 32
  • iGPU.png
    iGPU.png
    1,4 MB · Aufrufe: 29
Das wird ja auch von PCGH schön befeuert.
Mit Fakten. Dass Spiele bei VRAM-Mangel Details weglassen und teils erst nach langer Spiezeit Schluckauf kriegen, wird von den meisten Testern verschwiegen. Also wiegen sich die Interessenten in trügerischer Sicherheit. Aber wer ein betroffenes Modell hat und sich auskennt, kann das Problem auf den VRAM zurückführen. Natürlich kann man das kleinreden, aber wem genau hilft das? Wir klären lieber auf. :-)

MfG
Raff
 
Hey Raff...
Ich persönlich glaube das wir eine 3090Ti - Shaderleistung sehen werden...
Was ich eher spannend finde ist die RTX Leistung.

Du hast mal was gesagt zum Thema Speicherbandbreite und das man da mal schauen muss zu welchen Ergebnissen das führt.... zumindest habe ich das so verstanden...

Edit: nun in meinem persönlichen Fall interessiert mich, ob die 4070TI meine 3080TI OC+UV in allen Disziplinen schlägt oder eben nicht.

Obwohl ich als Nerd immer Interesse an neuer Tech habe und manchmal auch unvernüftig kaufe, hätte ich dieses Jahr mal meine Einstellung (immer xx80 bzw. 80TI) überdacht. Ich brauche eh ein breiteres PC Case und neue Stromkabel. ..(will den Adapter nicht)...sind auch irgendwie "GPU-Zusatzkosten".

Würde ich alles machen (nerv schon wieder am Case rumbasteln)...aber dafür müsste eine GPU wenigstens in Shader und RTX Leistung entsprechend besser sein...(und nicht nur manchmal)
 
Zuletzt bearbeitet:
Mit Fakten. Dass Spiele bei VRAM-Mangel Details weglassen und teils erst nach langer Spiezeit Schluckauf kriegen, wird von den meisten Testern verschwiegen. Also wiegen sich die Interessenten in trügerischer Sicherheit. Aber wer ein betroffenes Modell hat und sich auskennt, kann das Problem auf den VRAM zurückführen. Natürlich kann man das kleinreden, aber wem genau hilft das? Wir klären lieber auf. :-)

MfG
Raff
Aufklären ist super!

Nur werden da im Forumglaubenskrieg immer wieder nur mit extremen um sich geworfen. Ihr schreibt zum Beispiel damals bei FC6, das mit HD Texturen XY GB knapp werden können. Weiter auch das es beim HD Texture Paket nicht so unendlich, große optische Unterschiede bietet.

Im Forum wird daraus halt gemacht, das man mit Nvidia FC6 nicht spielen kann.


Ihr macht euren Job genau richtig! Nur am Rande, das ist meine Meinung.
 
Hey Raff...
Ich persönlich glaube das wir eine 3090Ti - Shaderleistung sehen werden...
Was ich eher spannend finde ist die RTX Leistung.

Du hast mal was gesagt zum Thema Speicherbandbreite und das man da mal schauen muss zu welchen Ergebnissen das führt.... zumindest habe ich das so verstanden...

Edit: nun in meinem persönlichen Fall interessiert mich, ob die 4070TI meine 3080TI OC+UV in allen Disziplinen schlägt oder eben nicht.

Obwohl ich als Nerd immer Interesse an neuer Tech habe und manchmal auch unvernüftig kaufe, hätte ich dieses Jahr mal meine Einstellung (immer xx80 bzw. 80TI) überdacht. Ich brauche eh ein breiteres PC Case und neue Stromkabel. ..(will den Adapter nicht)...sind auch irgendwie "GPU-Zusatzkosten".

Würde ich alles machen (nerv schon wieder am Case rumbasteln)...aber dafür müsste eine GPU wenigstens in Shader und RTX Leistung entsprechend besser sein...(und nicht nur manchmal)
Hey tigra,

mit deiner RTX 3080 Ti musst du dir keine Sorgen machen - du gehörst nicht zu denen, wo sich das Upgrade auf eine RTX 4070 Ti lohnt. Klar, schneller und sparsamer geht immer, aber in deinem Fall kriegst du nicht mal ein Speicher-Upgrade. Nur DLSS 3 und die Aussicht auf deutlich bessere Raytracing-Leistung, sobald das Feature SER in allen Engines Einzug hält, rechtfertigen eher kein Upgrade - aber das kannst du nach dem Launch der neuen Ti immer noch entscheiden und ggf. mit einem Verkauf der alten Karte schönrechnen. :D An deiner Stelle würde ich aber nicht unterhalb einer RTX 4080 planen.

MfG
Raff
 
Aufklären ist super!

Nur werden da im Forumglaubenskrieg immer wieder nur mit extremen um sich geworfen. Ihr schreibt zum Beispiel damals bei FC6, das mit HD Texturen XY GB knapp werden können. Weiter auch das es beim HD Texture Paket nicht so unendlich, große optische Unterschiede bietet.

Im Forum wird daraus halt gemacht, das man mit Nvidia FC6 nicht spielen kann.


Ihr macht euren Job genau richtig! Nur am Rande, das ist meine Meinung.
FC6 ist halt aber auch schon über 1 Jahr alt und in Zukunft wird's mit dem VRAM sicherlich nicht anders aussehen. UE5 soll bspw. sehr fordernd sein. Ob der VRAM-Geiz von Nvidia da bei den exorbitant teuren GPUs noch zeitgemäß ist, halte ich für äußerst fragwürdig. Selbst, wenn du durch Modding alte Spiele mit Texturenpaketen auffrischst, sind 12 GB schon sehr hart an der Grenze.
 
FC6 ist halt aber auch schon über 1 Jahr alt und in Zukunft wird's mit dem VRAM sicherlich nicht anders aussehen. UE5 soll bspw. sehr fordernd sein. Ob der VRAM-Geiz von Nvidia da bei den exorbitant teuren GPUs noch zeitgemäß ist, halte ich für äußerst fragwürdig. Selbst, wenn du durch Modding alte Spiele mit Texturenpaketen auffrischst, sind 12 GB schon sehr hart an der Grenze.
Naja, schlaue Menschen haben mal gesagt, PC Hardware kauft man nicht für die Zukunft, sondern fürs Jetzt.
Wir wollen mal erstmal sehen, wie der VRam Bedarf so ist, bei den UE5 Titeln. Für gewöhnliuch lief das bei Nvidia schon gut und ging am Ende doch auf.

Auch wofür so eine Karte geeignet ist. Wenn Nvidia die 4070 für 1080p mit RT auslegt, kann das schon gut passen.
Für 1440p mit Einschränkungen.

Hängt alles am Preis.

Ich weiß auch nicht, ob der RT Leistungs Geiz von AMD noch zeitgemäß ist ;). Man hat ja die Wahl, mehr RT Leistung, oder mehr Speicher...
 
Zuletzt bearbeitet:
Hey tigra,

mit deiner RTX 3080 Ti musst du dir keine Sorgen machen - du gehörst nicht zu denen, wo sich das Upgrade auf eine RTX 4070 Ti lohnt. Klar, schneller und sparsamer geht immer, aber in deinem Fall kriegst du nicht mal ein Speicher-Upgrade. Nur DLSS 3 und die Aussicht auf deutlich bessere Raytracing-Leistung, sobald das Feature SER in allen Engines Einzug hält, rechtfertigen eher kein Upgrade - aber das kannst du nach dem Launch der neuen Ti immer noch entscheiden und ggf. mit einem Verkauf der alten Karte schönrechnen. :D An deiner Stelle würde ich aber nicht unterhalb einer RTX 4080 planen.

MfG
Raff
Danke für deine Aufklärung.

Mir ist die 80er noch zu teuer und ich versuche zum Release der 70TI eine Verkauf / Neukauf-rechnung zu machen.

Und da ist’s so das ich keine Lust auf ne Ultra große Differenz habe.
Weniger Lust wie in den Jahren zuvor.

Mal abwarten, aber danke schonmal.
 
FC6 ist halt aber auch schon über 1 Jahr alt und in Zukunft wird's mit dem VRAM sicherlich nicht anders aussehen. UE5 soll bspw. sehr fordernd sein. Ob der VRAM-Geiz von Nvidia da bei den exorbitant teuren GPUs noch zeitgemäß ist, halte ich für äußerst fragwürdig. Selbst, wenn du durch Modding alte Spiele mit Texturenpaketen auffrischst, sind 12 GB schon sehr hart an der Grenze.
Also ich habe bisher nur bei einem Spiel HD Texturen draufgezogen und das ist ein Strategiespiel von 2006, das sich nur einen CPU Kern ausleiht. Es gibt genug Leute, die kommen zeitlich einfach nicht zu so etwas oder gar auf die Idee, das zu tun, weshalb 20GB GPUs einem schon außerirdisch vorkommen, was wiederum Grafikkarten "von der Stange" mit mäßig viel VRAM zum moderaten Preis so beliebt macht, für das jetzt und heute, mehr nicht. So zumindest die Theorie ;)
 
Danke, für die vielen antworten. Ich schaue mir gerade Reviews zu der RX 7900 XT an.
Ich habe mich schon zu 80% für die Sapphire PULSE Radeon RX 7900 XT 20GB endschieden ^^
 
Zurück