Special Geforce RTX 4070 Ti Super mit Performance-Problemen? Eine (Ent)Warnung im Vorab-Test

Wegen einem Spiel?
Also ich spiele RE4 mit FSR ultra quality und keine Probleme... Sorry

Dann muss man Dich entweder für Deine Leidensfähigkeit bewundern oder für Deine Sehkraft bemitleiden.
Kenne eigentlich nur Artikel die sagen, das FSR2, FSR 1 deutlich überlegen sei...

Ich habe schon ein paar mal FSR probiert, aber dem Tode nahe war ich nie. Selbst das häufig kritisierte Flimmern, finde ich in 4k, mit FSR Q nicht wirklich oft schlimm.

Im RE4 Remake ist FSR 2 definitiv eine absolute Katastrophe, es sei denn da wurde vor Kurzem etwas gepatcht. Und es sieht tatsächlich nochmal deutlich schlechter aus als FSR 1, das Spiel bietet ja beide Varianten an.
 
Lesen verstehen schreiben. Ich hab das an einem Typ festgemacht. Man vergleicht ja keine strix oder suprem mit einer Basisversion . Da hinkt der Vergleich zumindest bei der Qualität der Komponenten etwas
Was du nicht spezifiziert hast, oder?
Man kann absolut brauchbare Modelle zu den von mir genannten Preisen kaufen. Ob da jemanden einer abgeht, weil da eine Supreme xy drin steckt, ist irrelevant.

Du hast nur auf Customs hingewiesen die ohne echten Mehrwert absurd teuer sind.

Eine GPU soll in erster Linie Funktionieren.
Für den Großteil der Masse wäre absolut eine 4070ti s für mehr als 920€ zu kaufen. Weil es keinen echten Mehrwert gibt. Selbst die für 890€ funktionieren!

Lesen, verstehen, schreiben ;)
Schlechte Implementierung gibt des auch bei NVIDIA. DLAA in The Last of Us Remake schmiert/ ghostet bei mir.
Bei mir schliert, ghosted absolut nichts in the Last of us. (DLSS/DLAA)
 
Dann muss man Dich entweder für Deine Leidensfähigkeit bewundern oder für Deine Sehkraft bemitleiden.


Im RE4 Remake ist FSR 2 definitiv eine absolute Katastrophe, es sei denn da wurde vor Kurzem etwas gepatcht. Und es sieht tatsächlich nochmal deutlich schlechter aus als FSR 1, das Spiel bietet ja beide Varianten an.
Keine Ahnung was du da siehst, CB sagt genau das Gegenteil fsr 1 Katastrophe
2 sehr gut

FSR 2 ist sehr gut bei der Rekonstruktion und Detaildarstellung
Ganz anders verhält sich das temporale FSR 2, das auf alle drei Eigenschaften einen großen Einfluss hat. In Sachen Rekonstruktion und Detailerhaltung macht FSR 2 einen sehr guten Job. Selbst mit dem Performance-Preset in Ultra HD und damit einer Renderauflösung von 1.920 × 1.080 weist das Bild kaum weniger Details auf als das native Ultra-HD-Bild. Alle Objekte sind durchgezeichnet und scharf, in Full HD verschwundene Objekte sind mit FSR 2 plötzlich wieder vorhanden. Mit FSR 2 Quality muss man gar ziemlich genau hinschauen, um einen Unterschied zwischen dem Upsampling und der nativen Auflösung erkennen zu können. Das sind beeindruckende Ergebnisse

 
Man kann absolut brauchbare Modelle zu den von mir genannten Preisen kaufen. Ob da jemanden einer abgeht, weil da eine Supreme xy drin steckt, ist irrelevant.
Das sehe ich aus so. Diese überzüchteten Übertacktungsmodelle (+Kinderdisco) sind rausgeworfenes Geld, außer vielleicht bei einer 4090. Bei der sind +1% nun mal viel meher wert als bei einer 4070.
Die billigen Modelle sind aber genauso Mist, weil da am Material gespart wurde. Sprich, die Karte wird eine kürzere Lebensdauer haben.
Am besten fährt man in der Mitte der jeweiligen Modellserien.
 
Stromrechnung ist imo das neueste Scheinargument auf dem auch von den Herstellern wahnsinnig herumgeritten wird und das gefühlt oft nur nachgeplappert wird. Wenn wir das Spiel spielen wollen, dann bitte. Ich stell den Framelimiter in jedem Spiel auf 60fps. Das spart Leistung und schont die Umwelt. Ich und meine vielen Freunde lassen schon so viele GPUs nur noch auf halber Leistung fahren, dass Frankreich ein AKW abschalten musste. Werdet Mitglied meiner Kampagne und schreibt auch in Eure Forensignatur "60 Hertz für die Umwelt, Stoppt den Strom!"

Perf/Watt Vergleiche mit der Konkurrenz in Presse-Präsentationen kenn ich zuerst seitens AMD, glaube zur Ryzen2000 Einführung. Und hier im Forum war Perf/Watt ein Riesen-Thema zur letzten GPU Gen (Ampere vs RX6000).

Jo weil viele es auch einfach nicht wissen wird gerne schon bei ~20W Unterschied alle Argumente Richtung der CPU oder GPU geschoben, die den niedrigeren Verbrauch auswirft.

Völlig überzogen.

Wenn der Rechner wie bei mir 8+ Stunden am Tag mit 2 Monitoren im Idle läuft, dann macht ein 20W Unterschied schon was aus aufs Jahr gerechnet.

Du sagst es, "je nach Nutzung".
Deine Rechnung beruht ja auf deinem speziellen Anwendungsfall.

Den Vergleich von Mehrverbrauch zu Mehrkosten habe ich in dem für die Grafikkarten vorhergesehenen Szenario - Gaming - gemacht.

Daher ist das denke ich auch repräsentativ.

Repräsentativ für einen gewissen Prozentsatz an Usern die den PC nur zum Gaming nutzen, ja. Wie viele sind das?

Aber jetzt eine 1000€ Gaming Karte den ganzen Tag "idlen" (:ugly:) lassen und dann mit "Mehrverbrauch" argumentieren... Ich weiß nicht.. Da bin ich raus..

Ich bin da nicht raus, das ist genau mein Anwendungsfall. 8 Stunden Homeoffice im Dual-Monitor Betrieb, danach noch bisschen Gaming.
 
Das sehe ich aus so. Diese überzüchteten Übertacktungsmodelle (+Kinderdisco) sind rausgeworfenes Geld, außer vielleicht bei einer 4090. Bei der sind +1% nun mal viel meher wert als bei einer 4070.
Die billigen Modelle sind aber genauso Mist, weil da am Material gespart wurde. Sprich, die Karte wird eine kürzere Lebensdauer haben.
Am besten fährt man in der Mitte der jeweiligen Modellserien.
Ich meine, einfach mit beschäftigen und dann findet man sogar UVP Modelle, die brauchbar sind. Vor allem wer da sinnvoll auch noch das Powerlimit sowieso reduziert, der kommt erst recht mit den günstigen Modellen klar.

Nichts gegen Kinderdisco, ich habe auch eine die Bling Bling macht ;)

OCen ist auch bei einer 4090 genauso unnütz heutzutage.
1% auf 144Fps sind 1,4Fps, auf 60Fps sind das 0,6Fps. Wer die 4090 nutzt, der will auch bestmögliche Optik, also in den meisten Fällen reden wir über 60-144Fps. Mit Maßvollem Undervolting und Speicher OC, kommt bei RTX4000 quasi immer über Stock Leistung bei rund 80-85% des Stock Powerlimits.

Von da aus nochmal plus 5% ist schon nur mit der Brechstange möglich und diese 5% (wenn überhaupt) merkt keine Sau im Spielen.
 
Was du nicht spezifiziert hast, oder?
Man kann absolut brauchbare Modelle zu den von mir genannten Preisen kaufen. Ob da jemanden einer abgeht, weil da eine Supreme xy drin steckt, ist irrelevant.

Du hast nur auf Customs hingewiesen die ohne echten Mehrwert absurd teuer sind.

Eine GPU soll in erster Linie Funktionieren.
Für den Großteil der Masse wäre absolut eine 4070ti s für mehr als 920€ zu kaufen. Weil es keinen echten Mehrwert gibt. Selbst die für 890€ funktionieren!

Lesen, verstehen, schreiben ;)

Bei mir schliert, ghosted absolut nichts in the Last of us. (DLSS/DLAA)
Sind wir halt doch wieder bei Lesen verstehen schreiben

Ich habe in meinem Beitrag geschrieben "Ich mach das jetzt mal an der Asus Tuf fest" oder so ähnlich. Damit sollte das doch eigentlich klar sein oder? Die Tuf Karten sind ja nur einen Hauch von den FE Versionen soweit es sie gibt entfernt.

Abseits davon geb ich Dir aber recht. Und genau das ists ja was ich meine. 200-300 Euro Aufpreis nur um beispielsweise eine Strix zu haben? Wer macht das denn für die vielleicht, mit viel Glück, nochmal 3-5 % die da rausspringen?
 
2024 hat 251 Arbeitstage, minus 30 Tage Urlaub = 221 Tage
221 Tage x 8 Stunden = 1768 Stunden Arbeitszeit dieses Jahr

1 kWh kostet mich (als Bestandskunde mit Ökotarif) aktuell 39 Cent/kWh
1 Wh kostet also 0,039 Cent
20 Wh = 0,78 Cent
0,78 x 1768 = 1.379 Cent = 13,79€

Da kommt dann noch fürs Gaming entsprechend ein wenig drauf, das hängt natürlich sehr davon ab wieviel man zockt. 1 Stunde pro Tag (365 Stunden im Jahr) wären dann 0,78 x 365 = 284 Cent = 2,84€
Ich komme aber eher auf das doppelte an Stunden pro Jahr Gaming (ledig, keine Kinder, Freundin ist entspannt), also kommen für mich da eher 6€ drauf.

Macht dann ca. 20€ pro Jahr Mehrkosten, bei 4 Jahre Nutzungszeit sind das 80€. Mit den 80€ kann ich dann fast komplett den Aufpreis zu einer effizienteren Nvidia Karte bezahlen und bekomme die exklusiven Features und das bessere RT dazu.
Ja aber wie viel denn ?
Macht schon was aus ist kein exakter Wert.

Hab vergessen Dich zu zitieren.
 
Warum nicht objektiv. Tests haben allesamt etwas anderes bescheinigt.

Wie wäre es mit diesem Test?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Paul's Hardware hat über 10 Spiele hinweg getestet.

Ergebnis 4k: Die TiS ist 10% schneller als die Ti. Wenn man jedoch die Kosten pro Frame betrachtet, so liegt die Ti bei $8.25 und die TiS bei $7.99. Somit ist die Preis/Leistung der neuen TiS nur 3,1% besser, als bei der Ti vorher. Sorry, Nvidia, das ist zu wenig.

Ergebnis 1440p; Die TiS ist 6,6% schneller als die Ti. Kosten pro Frame sind $4.40 und $4.43, das kann man getrost als "keine Preissenkung" bezeichnen, sondern halt nur als neues Modell das weiter das kostet was es kann, nicht mehr, nicht weniger.
 
2024 hat 251 Arbeitstage, minus 30 Tage Urlaub = 221 Tage
221 Tage x 8 Stunden = 1768 Stunden Arbeitszeit dieses Jahr

1 kWh kostet mich (als Bestandskunde mit Ökotarif) aktuell 39 Cent/kWh
1 Wh kostet also 0,039 Cent
20 Wh = 0,78 Cent
0,78 x 1768 = 1.379 Cent = 13,79€

Da kommt dann noch fürs Gaming entsprechend ein wenig drauf, das hängt natürlich sehr davon ab wieviel man zockt. 1 Stunde pro Tag (365 Stunden im Jahr) wären dann 0,78 x 365 = 284 Cent = 2,84€
Ich komme aber eher auf das doppelte an Stunden pro Jahr Gaming (ledig, keine Kinder, Freundin ist entspannt), also kommen für mich da eher 6€ drauf.

Macht dann ca. 20€ pro Jahr Mehrkosten, bei 4 Jahre Nutzungszeit sind das 80€. Mit den 80€ kann ich dann fast komplett den Aufpreis zu einer effizienteren Nvidia Karte bezahlen und bekomme die exklusiven Features und das bessere RT dazu.


Hab vergessen Dich zu zitieren.
Klar.
Gilt aber ja nicht für jeden die Herangehensweise.

Manche nehmen lieber das in der Anschaffung günstigere Produkt.
Und zahlen bei der Unterhaltung dafür drauf.
 
Somit ist die Preis/Leistung der neuen TiS nur 3,1% besser, als bei der Ti vorher. Sorry, Nvidia, das ist zu wenig.
+4 GB Speicher nicht vergessen, außerdem vergleichst du Marktpreise mit MSRP zum Launch. Warte eine Woche und die Ti Super fällt im Preis.
Die TiS ist 6,6% schneller als die Ti. Kosten pro Frame sind $4.40 und $4.43, das kann man getrost als "keine Preissenkung" bezeichnen, sondern halt nur als neues Modell das weiter das kostet was es kann, nicht mehr, nicht weniger.
Man kann es sich immer so hinbiegen, dass es keine Preissenkung ist.
Man vergleicht Äpfel mit Birnen. Einfach wenige Tage abwarten.
 
Klar.
Gilt aber ja nicht für jeden die Herangehensweise.
Hab ich das behauptet? Nein.

Ich sagte explizit dass für meinen Use-Case (und ich bin nicht der einzige Home-Office Arbeiter in Deutschland) die +20W im Idle und Gaming-Betrieb nicht irrelevant sind.

Manche nehmen lieber das in der Anschaffung günstigere Produkt.
Und zahlen bei der Unterhaltung dafür drauf.
Jeder wie er möchte, trotzdem habe ich mit der Rechnung aufgezeigt dass sich der aktuelle Aufpreis auf eine Nvidia Karte nach ca. 4 Jahren größtenteils amortisiert hat. Dazu kommen dann die Extra-Features und die höhere RT-Performance.

Menschen die lieber das in der Anschaffung "günstigere Produkt" kaufen und dafür über die Laufzeit genau so viel zahlen wie beim teureren Produkt würde ich bestenfalls als Unwissend bezeichnen. Wenn man sich 10 Minuten damit auseinandersetzt (länger hab ich für die Rechnung oben nicht gebraucht) dann sieht man dass die Effizienz-Argumentation nicht nur Marketing ist.

Nicht umsonst hat AMD regelmäßig Perf/Watt-Vergleiche mit der Konkurrenz auf ihren Presse-Folien wenn sie gut dastehen. Wenn nicht (wie jetzt bei RDNA3 vs Ada) dann vergleichen sie mit der vorherigen Gen.

Bei Intel und Nvidia hab ich solche Vergleiche mit der Konkurrenz selten (oder nie? ich kann mich aktuell an keine erinnern) gesehen.
 
Zurück