News Geforce RTX 4070: OpenCL-Benchmarks und Shader-Bestätigung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4070: OpenCL-Benchmarks und Shader-Bestätigung

Zur Geforce RTX 4070 sind Open-CL-Benchmarks durchgesickert und die Shader-Zahl wurde einmal mehr bestätigt. So kurz vor Release dürfte das Modell nur noch wenige Geheimnisse bieten - selbst der Preis ist für Käufer schon klar. Offen bleibt primär die Frage, was die Board-Partner treiben werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4070: OpenCL-Benchmarks und Shader-Bestätigung
 
5888 Shader wären jetzt nicht schlimm, wenn diese 30-50% schneller sind als bei der 3070... (mind 3080 bis 3080 12GB Niveau)
599$ ist grenzwertig, aber etwa 50$ mehr wäre für 4GB VRAM mehr durchaus noch legitim. Ist nur die Frage, was machen die andere 50$ aus? DLSS-FG Aufpreis?

Positiv ist auf jeden Fall der geringere Verbrauch.

Zum Glück bietet AMD derzeit im Grafikkarten Markt deutlich empfehlenswertere Produkte an, die obendrauf auch noch deutlich zukunftssicherer sind.
Alte Karten die stark reduziert sind, nun keinesfalls schlecht.
Aber bei 600-650€ wäre das die 6800XT, welche vorraussichtlich etwa gleich schnell ist wie die 4070.
Vorteil sind da halt nur die 16GB VRAM...
Nachteil ist "noch" kein FSR3 bzw kein DLSS-FG, deutlich höheren Verbrauch und deutlich langsamer bei RT.
Da RT die Zukunft ist, ist die 6800XT auch nicht Zukunftssicherer. Aber darüber kann man streiten... :D

Es gibt 2 Gründe warum auch AMD noch keine 7800XT oder 7700XT rausbringt.
Grund 1 mag der sagenumwobene Hardware-Fehler sein.
Grund 2 ist, das sie den eigenen Karten ZU starke Konkurrenz machen würden, etwa so wie Nvidia das jetzt macht.
 
Ich freue mich auf die Karte, sie wird mir in FHD bis zum Beginn der PS6 Ära gute Dienste leisten. Auch der VRAM sollte für FHD recht zufunftsicher sein.
Warum kein WQHD, mögen sich jetzt einige fragen? Passt nicht auf meinen Schreibtisch!
 
Man rechnet damit, dass die Leistungsaufnahme der Geforce RTX 4070 bei maximal 200 Watt liegen wird, was sie im Vergleich zu den Spitzenleistungsaufnahmen der Topmodelle recht sparsam erscheinen lässt und im Vergleich zur Vorgeneration wäre sie etwas effizienter.
Kann man das eigentlich so sagen, dass sie "sparsamer" ist? Bei gleicher Belastung, wird eine 4090 ja vmtl gleich viel Strom benötigen oder? (solange man die 4090 nicht ausreizt)
Oder wars eh so gedacht, weil nur beim Vergleich mit der Vorgängergeneration "effizienter" geschrieben wurde?
 
Warum kein WQHD, mögen sich jetzt einige fragen? Passt nicht auf meinen Schreibtisch!
Eigentlich ist WQHD keine Monitor Größenangabe aber ich denke du meinst 24 Zoll.
Obwohl der Monitor mit 100Hz bei WQHD etwas komische Specs hat, die ich so nicht kenne.
Für WQHD werden 12 GB noch eine ganze Weile ausreichen, aber nicht in jedem Spiel für die Ultra Einstellung. Wenn die wirklich knapp werden, dann ist zumindest auch die Raytracing Leistung ebenfalls am Ende.
 
Also.. In 2023 eine Karte die auf dem Level einer 3080 Ti vom Speicher spielt, einer 3080 non Ti von der Leistung und dem gleichen Preis wie 2020? Fortschritt!!


Wann gab es denn eine 3080 für ~600-650€ in 2020? Da war man eher froh die Karte für um die 1000€ finden zu können. So fair solltest Du schon sein...;)
Ich freue mich auf die Karte, sie wird mir in FHD bis zum Beginn der PS6 Ära gute Dienste leisten. Auch der VRAM sollte für FHD recht zufunftsicher sein.
Warum kein WQHD, mögen sich jetzt einige fragen? Passt nicht auf meinen Schreibtisch!

Es gibt WQHD auch in 22 Zoll, aber vielleicht ist Dein Schreibtisch ja wirklich sehr klein...;D
 
PCGH:So rechnet ein Medium vor, dass sie wohl die Rechenleistung der Geforce RTX 3080 zur Leistungsaufnahme der Geforce RTX 3060 liefern soll.
Kann das Medium mir vor Verkaufsstart auch noch die Lottozahlen durchgeben- aber bitte Nur Mir!
Mein Schamane hat mir in der letzten Seance von Grafikkartenkauf bei Halbmond und Nvidiaprodukten abgeraten!
An Zweiteres werde ich mich bei dem Preis auch halten!
Gruß Yojinbo,Der grad seine Handlesetechnik verfeinert, um die nächste Graka-Generation schon mal zu checken!
 
Eigentlich ist WQHD keine Monitor Größenangabe aber ich denke du meinst 24 Zoll.
Für WQHD werden 12 GB noch eine ganze Weile ausreichen, aber nicht in jedem Spiel für die Ultra Einstellung. Wenn die wirklich knapp werden, dann ist zumindest auch die Raytracing Leistung ebenfalls am Ende.
Ja sorry, ich hätte 27 Zoll schreiben sollen. Es geht auch gar nicht mal um die Breite, sondern um die Höhe. Mein Monitor steht direkt unter einem Regal. Bei begrenztem Platz muß man halt puzzeln. Das es WQHD für 24 Zoll gibt, habe ich gar nicht mehr auf dem Schrim gehabt.
Solange das nicht so eine üble Texturenskalierung wie bei The Last of Us ist, habe ich noch nicht mal Probleme mit mittlerer Texturenqualität. Bei TLoU sehen alle Texturen, die niedriger als "Hoch" sind, absolut schrecklich aus. Keine Ahnung, was die da gemacht haben.
Ich gehe auch fest davon aus, das künftige Entwicklungen das Problem nicht mehr haben, weil sie die künftige PC Portierung im Hinterkopf haben werden. Sprich, bei künftigen, noch nicht erschienen Spielen, sollte die Portierung einfacher werden.
 
Das der Vram mit selbem Takt laufen soll ist irgendwie Overkill, ... würde net etwas Weniger mit reduzierten Volt
vernünftiger sein, man braucht ja net die selbe Bandbreite wie die Ti!?
In dem Sinne hätte normaler sparsamer GDDR6 gereicht. (man hätte ja 192/128 = 50% mehr Bandbreite als ne 4060Ti)

Gerade in UWQHD spielt vllt. das PL dann ne Rolle, wo man 30% weniger hat als die Ti.

dagegen
FHD wird sicher interessant, wenn man ab Werk mehr Takt hat.(... damit nahe an den OCL Abstand zur Ti rankommt)
PL sollte noch net bremsen und die Auslastung der Shader idealer sein.(sogar>3080 möglich)
 
Zuletzt bearbeitet:
Das der Vram mit selbem Takt laufen soll ist irgendwie Overkill, ... würde net etwas Weniger mit reduzierten Volt
vernünftiger sein, man braucht ja net die selbe Bandbreite wie die Ti!?
Kann auch zur Folge haben, dass der Abstand zur Ti geringer ist.
So wie das aussieht, sind das trotz Taktreduzierung und Shaderreduktion nur etwa 20%, da die Bandbreite gleich bleibt. Damit bliebe man auch leicht über der 3080 10G.
 
Da muss man echt die Verbrauchsmessungen in den Games abwarten, in welcher Resi das Ganze zusammenpasst.
200W ist halt deutlich weniger als 285W und im worst Case würde man fast genausoviel auf dem Speichercontroller+Vram
verbraten, z.Bsp. 75...100W und nur der Rest steht den Shadern zur Verfügung.
 
Da muss man echt die Verbrauchsmessungen in den Games abwarten, in welcher Resi das Ganze zusammenpasst.
200W ist halt deutlich weniger als 285W
Und du kannst davon ausgehen dass erstens der Realverbrauch merklich unter den 200W liegen wird (sofern die Boardpartner das nicht mit OC-Versionen aushebeln) und zweitens die nahezu gleiche Leistung auch mit 80% PT (also 160W) erreicht werden kann. Das war bisher bei jeder Ada-Karte so und sollte bei der 4070 entsprechend auch etwa hinkommen.

So gesehen ist eine 12GB-Karte mit Performance der 3080 für 150-160W optimiertem Realverbrauch eine sehr gute Option für FHD und WQHD - nur sind die 600+ € dafür halt einfach zu viel. Technisch gibts gar nicht so schrecklich viel auszusetzen, nur wäre das persönlich gefühlt (!) halt eigentlich ne 350€-Karte.
 
499€ ... 549€(incl. Inflation) wäre vllt. mit preiswertem GDDR6 drin gewesen
... dann ein würdiger Nachfolger der 3070 mit echtem Gewinn bei P/L+Ausstattung
(wieder näher an der guten alten 2080Ti)
 
Zuletzt bearbeitet:
Was soll eigentlich diese ständige FrameGeneration Marketing. Mag sein das es ein hilfreiches Mittel zur Smoothness ist, unter Strich aber kein FPS Generator…
 
Zurück