News Geforce RTX 4070: Nvidia betont die niedrige Leistungsaufnahme - gegenüber 3070 Ti

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4070: Nvidia betont die niedrige Leistungsaufnahme - gegenüber 3070 Ti

In einem Video hat Nvidia die geringe Leistungsaufnahme der RTX 4070 im Vergleich zur RTX 3070 Ti hervorgehoben. Diese ist eine der ineffizientesten Ampere-Grafikkarten und nicht ihre direkte Vorgängerin. Lesen Sie daher im Folgenden, wie die RTX 4070 gegen eine RTX 3070 abschneidet und ob Nvidia mit realistischen Werten arbeitet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4070: Nvidia betont die niedrige Leistungsaufnahme - gegenüber 3070 Ti
 
Soweit ich weiß hat Nvidia auch behauptet, dass die RTX 4070 4 mal schneller, als die GTX 1080Ti wäre und deren Besitzern zum Aufrüsten geraten. Natürlich galt das nur, wenn man DLSS Performance gegen nativ getestet hat, real waren es dann etwa 1,7 mal schneller.

Aber schön, dass nicht nur Intel die "Realworldperformance" für sich entdeckt hat.
 
Soweit ich weiß hat Nvidia auch behauptet, dass die RTX 4070 4 mal schneller, als die GTX 1080Ti wäre und deren Besitzern zum Aufrüsten geraten. Natürlich galt das nur, wenn man DLSS Performance gegen nativ getestet hat, real waren es dann etwa 1,7 mal schneller.

Aber schön, dass nicht nur Intel die "Realworldperformance" für sich entdeckt hat.
NV wird doch schon die ganze Zeit mit den Zahlen die DLSS3 liefert, ist doch jetzt nichts Neues.
 
So ein Genenerationenvgl. ist sicher easy , wenn man das Modell mit der schlechtesten Effizienz (3070Ti) hernimmt.
Die olle Ti hatte wohl 280W!?

ne 7900xt mit PL=-10 läuft damit auch schon rund in CP2077@Raster: im integrierten Bench=100fps@FSR2quality

CP2077@7900xt-UWQHD-Raster.JPG

278W/103,63fps=2,68W/fps ist ganz annehmbar
(mehr W bringt keinen guten linearen Anstieg, ... man müsste dann auch am maxTakt rumpfriemeln)

btw.
Mal ganz nebenbei gesagt, die meisten aktuellen Grakas sind vom Kühler her auch besser als die vorherige Gen, so das die 280W net laut sind.
Das ne 4070FE mit deutlich weniger W störende Lüftergeräusche macht ist dann umso unverständlicher.
Je höher die Drehzahl, desto intensiver werden sie, doch auch bei 1.100 Umdrehungen und damit der Idle-Drehzahl (bis die Lüfter abgeschaltet werden) „brummt“ die Founders Edition hörbar. Beim Spielen mit ihren 1.725 Umdrehungen pro Minute ist dies noch mehr zu hören. Das gilt es vor dem Kauf zu beachten.

btw.
Ob sich ne Custom-4070@240W überhaupt lohnt, bezweifel ich.
Dann doch lieber ein paar Cent mehr für ne richtige Graka investieren.(der Abstand zur 4070Ti ist einfach zu groß)
 
Zuletzt bearbeitet:
Soweit ich weiß hat Nvidia auch behauptet, dass die RTX 4070 4 mal schneller, als die GTX 1080Ti wäre und deren Besitzern zum Aufrüsten geraten. Natürlich galt das nur, wenn man DLSS Performance gegen nativ getestet hat, real waren es dann etwa 1,7 mal schneller.

Aber schön, dass nicht nur Intel die "Realworldperformance" für sich entdeckt hat.
Du meinst wie AMD und "maximale RT Leistung" mit FSR 2.1 Performance?

Aber Hauptsache kurz gegen Nvidia und Intel...

Verstehe ich nicht, wie manche so etwas so einseitig wahrnehmen.
Genau wie beim Thema P/L Verhältnis.
 
Du meinst wie AMD und "maximale RT Leistung" mit FSR 2.1 Performance?

So ähnlich, wobei man AMD noch zu gute halten kann, dass es sich um die maximale AMD Leistung handelt. Vergleichbar wäre es, wenn sie die RX 7900XTX, mit FSR 2 Ultra Performance, gegen die RTX 4090 nativ antreten hätten lassen.

Aber Hauptsache kurz gegen Nvidia und Intel...

Den Käse hat sich eben nur Nvidia ausgedacht und nicht AMD.

Wenn du meine Kommentare etwas besser kennen würdest, dann wüßtest du, dass ich AMD den Phenom I, Bulldozer und Vega durchaus nachtrage.

Verstehe ich nicht, wie manche so etwas so einseitig wahrnehmen.

Wenn Nvidia irgendwelchen Käse zum Thema RTX 4070 verlautbaren läßt, dann kann man das nunmal nur einseitig wahrnehmen.

Genau wie beim Thema P/L Verhältnis.

Nvidia hat nunmal ein relativ schlechtes P/L Verhältnis, das ist leider ein Fakt. Sie lassen sich fürstlich bezahlen.
 
So ähnlich, wobei man AMD noch zu gute halten kann, dass es sich um die maximale AMD Leistung handelt. Vergleichbar wäre es, wenn sie die RX 7900XTX, mit FSR 2 Ultra Performance, gegen die RTX 4090 nativ antreten hätten lassen.
Naja, Jede Firma macht hübsche Bildchen die am Ende mit der Realität nicht immer etwas zu tun hat. Werbegedöns halt.

Ich halte das für eine einseitig Ansicht... Aber ok, ist auch nur meine Meinung!
Den Käse hat sich eben nur Nvidia ausgedacht und nicht AMD.
Findest du? Ich nicht.
Wenn du meine Kommentare etwas besser kennen würdest, dann wüßtest du, dass ich AMD den Phenom I, Bulldozer und Vega durchaus nachtrage.
Was hat das denn jetzt damit zu tun. Ich trage einem Hersteller nicht wirklich etwas nach. Außer damals die GTX970. Wobei AMDs 8 Kerne auch gut waren.
Wenn Nvidia irgendwelchen Käse zum Thema RTX 4070 verlautbaren läßt, dann kann man das nunmal nur einseitig wahrnehmen.
Ich denke hier im Forum sind bei den Kommentierenden auch viele die einfach etwas festgefahren sind. Hauptsache gegen Nvidia / Intel... Bla.
Nvidia hat nunmal ein relativ schlechtes P/L Verhältnis, das ist leider ein Fakt. Sie lassen sich fürstlich bezahlen.
Komisch das AMD kein besseres bietet. Ist also kein grünes Problem.

Im Grunde bietet Nvidia bei RTX4000, wie auch schon bei RTX3000 das selbe P/L Verhältnis gegenüber RX7000, bzw. RX6000. Das der Markt zum EOL unterschiedlich reagiert hat nichts mit den Herstellern als solches zu tun. Sondern an der Kundschaft.

Die UVPs lassen sich aber vergleichen.
 
Nvidia hat nunmal ein relativ schlechtes P/L Verhältnis, das ist leider ein Fakt. Sie lassen sich fürstlich bezahlen.

Wenn man Performance mit entsprechender Bildqualität vergleicht, sieht Nvidia nicht schlecht aus
DLSS.png
Vorbemerkung.png FSR vs DLSS.png

Benchmarks und Tests lassen sich doch zuhauf im I-Net finden um den Kauf der eigenen Grafikkarte zu rechtfertigen....

Dazu braucht es weder von AMD noch Nvidia hauseigene Benchmarkbalken.
 
Nvidia Bullshit mal wieder. In letzter Zeit macht sich diese Firma immer lächerlicher. Oder ist das nur meine Einbildung? Meine 3070 Ti FE verbraucht beim Zocken max. 130 Watt, +- 15Watt. Undervolting auf 0,900 V. Max Takt auf 1950 Mhz. Max. FPS 60. So bleibt meine Kiste schön kühl, leise und verbraucht nicht unnötig Strom.
 
Ich weiß zwar nicht in welchem Game...aber eine RTX 4070 wird das locker mit den selben Einstellungen toppen.
Meine RTX 3070 konnte ich auch gut drücken...aber gegen ADA keine Chance.
In Hogwarts mal durch eine helle Mondnacht geschlendert..und durstig ist die Karte wahrlich nicht.

HL1.jpg
HL2.jpg
HL3.jpg
 
Ich weiß zwar nicht in welchem Game...aber eine RTX 4070 wird das locker mit den selben Einstellungen toppen.
Meine RTX 3070 konnte ich auch gut drücken...aber gegen ADA keine Chance.
In Hogwarts mal durch eine helle Mondnacht geschlendert..und durstig ist die Karte wahrlich nicht.

Anhang anzeigen 1423957
Anhang anzeigen 1423958
Anhang anzeigen 1423959
Das ist klar. Die neuen Karten haben eine viel kleinere Fertigung als die Chips der 3000er Reihe. DDR6x ist ja auch noch richtig stromhungrig. Eine 3070 Ti von ca. 300 Watt auf 130 Watt zu drücken, bei gleicher Leistung, ist schon enorm. Da frage ich mich weshalb das nicht von Werk aus gemacht wird. Wer weiß wie weit du deine 4070 stromtechnisch mit undervolting drücken könntest.
 
Die 70er Karten sind weit über ihrer Wohlfühlzone ausgeliefert worden...der Balken muss möglichst lang sein.
Zum Glück hat es ja jeder selber in der Hand da gegenzusteuern.
Die Screens sind mit der RTX 4070TI meiner Frau gemacht worden...säuft ja, so wie sie ausgeliefert werden, laut Test auch bis 285W :klatsch:
 
Zurück