Special Geforce RTX 4070 Ti Super mit Performance-Problemen? Eine (Ent)Warnung im Vorab-Test

Stromrechnung ist imo das neueste Scheinargument auf dem auch von den Herstellern wahnsinnig herumgeritten wird und das gefühlt oft nur nachgeplappert wird. Wenn wir das Spiel spielen wollen, dann bitte. Ich stell den Framelimiter in jedem Spiel auf 60fps. Das spart Leistung und schont die Umwelt. Ich und meine vielen Freunde lassen schon so viele GPUs nur noch auf halber Leistung fahren, dass Frankreich ein AKW abschalten musste. Werdet Mitglied meiner Kampagne und schreibt auch in Eure Forensignatur "60 Hertz für die Umwelt, Stoppt den Strom!"
Jo weil viele es auch einfach nicht wissen wird gerne schon bei ~20W Unterschied alle Argumente Richtung der CPU oder GPU geschoben, die den niedrigeren Verbrauch auswirft.

Völlig überzogen.
 
Genau das meine ich auch. Mir ging es um die Verhältnismäßigkeit Mehrverbrauch zu Mehrpreis.
Manche setzen ja 40 Watt Mehrverbrauch mit 40€ gleich... :schief:
 
Jedes einzelne Argument ist nur so gut wie die gesamte Kette.

Jo weil viele es auch einfach nicht wissen wird gerne schon bei ~20W Unterschied alle Argumente Richtung der CPU oder GPU geschoben, die den niedrigeren Verbrauch auswirft.

Völlig überzogen.

Genau das meine ich auch. Mir ging es um die Verhältnismäßigkeit Mehrverbrauch zu Mehrpreis.
Manche setzen ja 40 Watt Mehrverbrauch mit 40€ gleich... :schief:

20, oder 40W können relevant sein, oder werden. Je nach Nutzung.

20-40W im idle, bzw bei geringer Last, die aber Beispielsweise 90% der Zeit ausmachen sind sehr wohl relevant.

Also man muss für sich schauen. Ich habe vor ein paar Wochen mal eine Beispielrechnung in Thread XY gemacht und dabei kam für mein Nutzungsszenario tatsächlich raus, auf eine Nutzungsdauer, die viele hier als normal ansehen, kostet mich die AMD Variante 160€ mehr an Strom, als die Nvidia Variante.

Wobei sich das jetzt geändert hat, da mein Spielerechner nicht mehr mein Homeoffice supporten muss, dafür steht da jetzt ein 25W client...

Das bedeutet, das es jetzt wohl nur noch 40€ auf die Nutzungszeit sind, wenn überhaupt. (Gerade nachgerechnet, etwa 33-42€, bei etwa 5-6 std/Woche Gaming )
Gehen wir mal von großzügigen 40 Watt Mehrverbrauch aus:
Anhang anzeigen 1449963

Bei einem aktuellen Strompreis von durchschnittlich 30cent (Neukunden zahlen aktuell im Schnitt 27 cent) entsprechen 100€ ca. 333 KWh.
Das sind bei 40 Watt ca. 8325 Stunden Gaming.

Davon kannst du im Jahr 7 Tage die Woche 22 Stunden zocken.
Oder 2 Jahre lang jeden Tag 11 Stunden..
Oder 3 Jahre lang jeden Tag 7 Stunden..
Oder 4 Jahre lange jeden Tag 5 Stunden...

JEDEN Tag.

Also ich weiß ja nicht was ihr den ganzen Tag so macht, aber ich schaff das nicht..
Naja, ich bin auch zu alt für so nen Quatsch.

Vor allem für so nen Quatsch wie Fanboy-"Gelaber"..

ich schiele übrigens auf ne 4080 Super und hab ne 6800XT..:wow:

In diesem Sinne :bier:
Jetzt nimm aber auch die aktuellen, modernen Spiele.

Dann bist du eher bei XTX gegen 4070ti(S) und schon hast du eher 355 zu 270W.
Oder Custom, gegen Custom, da werden das schnell 400 zu 275W.

Schon kann man das erreichen.

ABER das ist alles höchst individuell und das sollte, oder muss jeder der auf den Verbrauch schauen möchte für sich einmal beleuchten. Was mache ich mit der Maschine, wie oft usw.

Dann kann man so etwas mit rein ziehen. Muss aber auch nicht.
Naja, für bissl RT hier und da reichts ja. Man weiss vorher schon, worauf man sich einlässt. Mit den 12 GB weiss man halt nie, ob es auch für den nächsten " Blockbuster" reicht - und ich betone nochmal, dass sollte es bei dieser Preisklasse nicht geben. Das würde ich AMD genauso ankreiden, wenn sie dasselbe Spielchen spielen würden.
Macht AMD doch, mit der RT LEistung.

Du weißt nie, ob der nächste Blockbuster nicht mehr RT verwendet und wie Avatar nicht separat regelbar macht.
Es spielt kaum eine Rolle, man tauscht nur das eine Übel, gegen ein anderes.
Preis/Leistung war noch nie die Domäne der 4070Ti und mit der TiS ändert sich das auch nicht. Es ist halt dieses 12GB Thema vom Tisch und man hat messbar mehr Leistung, aber beim Spielen wird es gefühlt immer noch die gleiche Leistung sein und daher scheint die Begeisterung für die Karte geringer auszufallen und die Argumente für die Karte gehen viel mehr in Details unter speziellen Spezialbedingungen.

Warum nicht objektiv. Tests haben allesamt etwas anderes bescheinigt.
Die 4070S hat die Preis/Leistung verbessert, wenn auch nur um 10%, der große Sprung war das auch nicht, aber doch ein Sprung der besser wahrgenommen wurde.

Stromrechnung ist imo das neueste Scheinargument auf dem auch von den Herstellern wahnsinnig herumgeritten wird und das gefühlt oft nur nachgeplappert wird. Wenn wir das Spiel spielen wollen, dann bitte. Ich stell den Framelimiter in jedem Spiel auf 60fps. Das spart Leistung und schont die Umwelt. Ich und meine vielen Freunde lassen schon so viele GPUs nur noch auf halber Leistung fahren, dass Frankreich ein AKW abschalten musste. Werdet Mitglied meiner Kampagne und schreibt auch in Eure Forensignatur "60 Hertz für die Umwelt, Stoppt den Strom!"
So so, ein Scheinargument... War es das zu RX6000 Zeiten auch, als AMD User im Forum auf der höheren Effizienz beim reinen Rastern rum geritten sind?
 
Zuletzt bearbeitet:
Du sagst es, "je nach Nutzung".
Deine Rechnung beruht ja auf deinem speziellen Anwendungsfall.

Den Vergleich von Mehrverbrauch zu Mehrkosten habe ich in dem für die Grafikkarten vorhergesehenen Szenario - Gaming - gemacht.

Daher ist das denke ich auch repräsentativ.

Aber jetzt eine 1000€ Gaming Karte den ganzen Tag "idlen" (:ugly:) lassen und dann mit "Mehrverbrauch" argumentieren... Ich weiß nicht.. Da bin ich raus..
 
Wir haben ja eine Formel an die sich jeder orientieren kann, wie sehr es sich für ihn lohnt oder nicht lohnt Komponente XY zu betreiben.

Diese kann man für ganze Rechenfarmen, für einzelne Desktop PCs, CPUs oder auch nur Grafikkarten anwenden.

Sicherlich gibt es da auch Varianzen und nichts ist in Stein gemeißelt.
Aber es bietet eine gute Möglichkeit verschiedene Komponenten vergleichen zu können und sich zu orientieren.

Ob die eine Komponente mich 40€ Strom weniger im Jahr kostet aber dafür in der Anschaffung 200€ mehr muss jeder für sich selber entscheiden.
 
das war dann die schlussendliche Kaufentscheidung.. Dieses Jahr wird noch gerastert... Nächstes Jahr ist das mit dem Raytracing dann schon wieder etwas mehr etabliert und die zukünftigen Grafikkarten (5080/5090) brechen dann hoffentlich nicht mehr so brutal ein...
RTX4000 bricht ja nicht mehr so brutal ein. Aber ja, RTX5000 und RX8000 werden da hoffentlich nochmal eine Schippe drauf legen.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
DAS wird sicher einigen Leuten schon reichen.
(nicht Jeder braucht PT)

Was wird reichen? 22-25% Microstutter? Das geht mal gar nicht und senkt die gefühlte Framerate gut um die Hälfte runter. Wo sind denn die ganzen Leute, die so empfindlich auf Microruckler reagieren? Wo sind denn die ganzen Leute, die hohe Frames brauchen, damit es flüssig ist und nicht wie bei 60 Fps Krüppelkotze? :ugly:

Naja, für bissl RT hier und da reichts ja. Man weiss vorher schon, worauf man sich einlässt. Mit den 12 GB weiss man halt nie, ob es auch für den nächsten " Blockbuster" reicht - und ich betone nochmal, dass sollte es bei dieser Preisklasse nicht geben. Das würde ich AMD genauso ankreiden, wenn sie dasselbe Spielchen spielen würden.

Dafür braucht man mit einer AMD zwischen 10-20% mehr VRAM und manchmal sogar noch mehr. Mit Upscalern dürfte der Unterschied bei vergleichbarer Qualität nochmals höher sein, weil DLSS in Balanced effektiv ein besseres Bild als AMD mit FSR Quality erzeugt. Erstaunlich ist, dass bei aktiviertem Raytracing, wo AMD eh schon nicht gut performed, der VRAM Usage nochmals enorm steigt, während Nvidia davon gefühlt eher unbeeindruckt ist.

1706083764330.png


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Bei GeForces nur am Stänkern, bei AMD voll des Lobes.
Schon bei der 4070 Super hast du über angeblich windige Bauteile bei den UVP Karten gesprochen und auf Nachfrage kam dann nichts.
Einfach total überflüssig sowas. Plastikbackplate bei welchem Modell?

Selbst die günstigste 4070 Super von MSI hatte ne Metall Backplate.
Nö ich finde auch die ganzen letzten Karten vom AMD grottig, es sei hier mal nur die 7600 genannt z.B., kannst dich ja gerne mal da in dem Thread nach meiner Meinung dazu umschauen. Vram Krüppel bleibt Vram Krüppel und vom beschneiden des Interfaces halte ich bei Aufrüstkarten auch mal gar nichts von.

Ansonsten erst mal korrekt informieren, die hier getestete Ventus hat weder Bling Bling noch sonst irgendwas was man von einer Customkarte in der Preisklasse erwarten würde und die Backplate ist aus PLASTIK!, das sieht bei den anderen Referenzmodellen nicht anders aus. NoGo wie ich finde, aber die hiesigen Enthusiasten schauen da ja gerne drüber hinweg.

Die Leistungssteigerung ist schlicht lachhaft, beim Nachtest werden da vielleicht 1-2% drauf kommen, wenn überhaupt.
 
Klar ist die RT Leistung aktuell eine Generation zurück aber nach der Logik solcher Aussagen ist gleichzeitig die RT Leistung von gut 50-70% der aktuellen NV Karten auch ein Witz.
NA, es wird auf den 12GB herum geritten, als kann man bei dem Vergleich bleiben.

Es spielt aktuell kaum eine Rolle, ob 7900XT, oder 4070ti.
Die eine hat 20GB VRam, dafür die andere auch bei starkem RT keine Probleme.

Dazu die anderen Faktoren, Bildqualität (DLSS), Verbrauch, VR usw. ergeben die Preise am Markt und mit beiden ist man gleich gut aufgestellt, für die Zukunft.

Des einen Schwäche, ist des anderen Stärke.
 
Fsr..99% der Spieler reicht auch FSR

Mit reicht FSR definitiv nicht. Hatte vor Kurzem erst eine Nah-Tod Erfahrung mit dieser tollen Technologie im RE4 Remake. Das die sich überhaupt trauen sowas zu implementieren... Und warum sieht FSR 2 nochmal schlechter aus als FSR 1? AMD eben...
Hat auch etwas mit Anstand zu tun.
Das wäre eigentlich nur entschuldbar, wenn es erst gestern oder vorgestern aufgefallen wäre, als die Karten wirklich schon bei den Händlern gewesen wären.

Anstand? Sowas gabs in den 90ern mal hab ich gehört...
 
Mit reicht FSR definitiv nicht. Hatte vor Kurzem erst eine Nah-Tod Erfahrung mit dieser tollen Technologie im RE4 Remake. Das die sich überhaupt trauen sowas zu implementieren... Und warum sieht FSR 2 nochmal schlechter aus als FSR 1? AMD eben...


Anstand? Sowas gabs in den 90ern mal hab ich gehört...
Kenne eigentlich nur Artikel die sagen, das FSR2, FSR 1 deutlich überlegen sei...

Ich habe schon ein paar mal FSR probiert, aber dem Tode nahe war ich nie. Selbst das häufig kritisierte Flimmern, finde ich in 4k, mit FSR Q nicht wirklich oft schlimm.
 
Das ist eben das Ergebnis jahrelanger Anus kriecherei.

Wäre der Journalismus genauso kritisch wie um die 2005-2010 Jahre geblieben gäbe es heute nicht so einen Müll,
aber um Testsamples zu bekommen musste man den Herstellern richtig tief rein kriechen.


Zuerst wurde man seitens 680 mit 2GB verarscht (vs der besseren 580 mit 3GB)
660 mit 2GB an 192Bit (wo 512MB nur an 32Bit hängen)
Titan als 1000€ Produkt was eigentlich eine 780ti hätte sein müssen
970 3,5GB + 512MB
Preisklassenerhöhung
etc. etc. etc.
 
Ich hab nun viele deutsche und Englische Tests durch, sowohl gelesen als auch gesehen. Was mich sehr wundert ist, dass niemand so wirklich auf das Chaos eingeht das Nvidia gerade mit den Preisen veranstaltet.

Wenn ichs mal an den Asus Tuf OC festmache
4070: 679
4070S: 745
4070TI: ~920
4070TiS: 939
4080: ~ 1400
4080S: irgendwo bei 1199 voraussichtlich

Wenn man sich dann manche Listungen ansieht der 4070TiS wo die "guten" Customs auf bis zu 1200 Euro hoch gehen, wo ist denn da der Preispunkt der 4080 für den Abverkauf. Ab kommender Woche wird die keiner mehr kaufen der halbwegs informiert ist, andererseits kann ich mir nur schwer vorstellen, dass es eine (der besseren) 4080 unter oder um 1099 Euro geben wird wo sie sich beim aktuellen PReisgefüge einordnen müsste.

Mein Problem ist, ich würde genre mal mit Bäumchen Wechsel Dich aufhören nachdem ich vor eine dreiviertel Jahr den Fehler gemacht habe meine 4080 wieder zu verkaufen da sie zu dem Zeitpunkt im Wachkoma lag beim Zocken.
7900XT hab ich vorgestern die zweite an den Händler zurück geschickt, da bin ich erstmal kuriert von AMD. Da mein Gamingprofil aber recht breit gefächert ist und von Hearts of Iron über Cities Skylines bis hin zu Cyberpunk und Starfield geht hätte ich schon gerne was mit bissl mehr bums um erstmal paar Jahre Ruhe zu haben. Was tun Herr Kommisar Raff
 
Mit reicht FSR definitiv nicht. Hatte vor Kurzem erst eine Nah-Tod Erfahrung mit dieser tollen Technologie im RE4 Remake. Das die sich überhaupt trauen sowas zu implementieren... Und warum sieht FSR 2 nochmal schlechter aus als FSR 1? AMD eben...


Anstand? Sowas gabs in den 90ern mal hab ich gehört...
Wegen einem Spiel?
Also ich spiele RE4 mit FSR ultra quality und keine Probleme... Sorry
 
Kann es sein das die 4070 TiS Karten aus dem Preisvergleich verschwunden sind? Zumindest finde ich keine mehr:wow:

edit: bei Alternate und Mindfactory sind sie auch nicht mehr gelistet!
 
Zurück