News Nvidias Geforce RTX 4070 Super ... - Das sagt das PCGH-Team dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidias Geforce RTX 4070 Super ... - Das sagt das PCGH-Team dazu

PC Games Hardware kommentiert aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen des PCGH-Teams, heute zum Thema "Nvidias Geforce RTX 4070 Super ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidias Geforce RTX 4070 Super ... - Das sagt das PCGH-Team dazu
 
Der Vergleich mit dem zu wenig Hubraum trifft es eigentlich perfekt. Was nützt mir ein bärenstarker Motor, wenn er diese Leistung aufgrund zu kleinen Hubraum nicht vernünftig auf die Straße bringen kann ? Dazu kommt dann noch, wenn man für so eine Kombination einen immer noch äußerst stolzen Preis auf das Preisschild klebt.

Genauso verhält es sich mit der 4070S. Rohleistung ist genug da. Aber sie kann diese in höheren Auflösungen und insbesondere bei RT aufgrund des zu geringen VRAMs nicht mehr vernünftig auf den Bildschirm bringen. Und sorry, 700€ und mehr für vernünftige Custom-Modelle und dann nur 12 GB VRAM, paßt einfach nicht zusammen.

Aber das hat Nvidia in ihren Knauserwahn höchstselbst verbockt. Diese Karte mit der Leistung bei einem 256 bit Speicherinterface und 16 GB VRAM wäre ein Selbstläufer gewesen und hätte sich wie geschnitten Brot verkauft. Aber im jetzigen Zustand ist es einfach nur mäh !
 
Sie ist halt deutlich besser positioniert als die ursprüngliche 4070 und 4070ti. Es bräuchte aber halt mal GDDR6X-Chips mit 50% mehr Kapazität pro DIE, dann könnte auch eine 18GiB-Variante daraus gebaut werden. Dass hingegen 24GiB wie Overkill wirken, ist klar.
 
Es ist unfair jetzt Drauf zu hauen wegen angeblich zu wenig vram.
Erstens ist nvidia besser im Speicher Management. Zweitens ist es nvidia zu danken das jetzt AMD ihre Preise senken muss. Also ist es eine win win Situation für alle. Ich verstehe die Aufregung nicht.
 
Es ist unfair jetzt Drauf zu hauen wegen angeblich zu wenig vram.
Erstens ist nvidia besser im Speicher Management. Zweitens ist es nvidia zu danken das jetzt AMD ihre Preise senken muss. Also ist es eine win win Situation für alle. Ich verstehe die Aufregung nicht.
Mit 12 "Geforce-GiByte" kommt man praktisch zwar immer noch besser aus als mit 12 "Radeon-GiByte" oder 12 "Arc-GiByte" (Punkt), die Lücke zu 16 GiByte lässt sich aber selbst mit der besten Software-Magie nicht schließen.

Die Aufregung bezieht sich darauf, dass man - schon wieder - eine tolle Grafikkarte für die Gegenwart erhält, aber direkt bangen muss, dass es künftig öfter holprig wird. Wie bei der RTX 3070. Nvidia hat den AD104 mit seinen sechs Speicher-Controllern vor einigen Jahren wissentlich für 12 GiByte konstruiert; die einzige Alternative wären (unwirtschaftliche) 24 GiByte. Die Idee, endlich 1,5-GiByte-Chips fertigen zu lassen, scheint auf keinerlei Interesse zu stoßen.

MfG
Raff
 
Welche Alternative hat man denn, wenn man RT nutzen will und nicht gleich 1000€ auf den Tisch legen will oder kann? Der Verbrauch ist auch ein Punkt für NV. Das für mich einzige Manko ist und bleibt leider der Speicher. Insgesamt bin ich aber mit meiner 4070 zufrieden. Für mich war zu diesem Zeitpunkt die 6800XT keine Alternative, ebensowenig die Nachfolgerin.
 
Welche Alternative hat man denn, wenn man RT nutzen will und nicht gleich 1000€ auf den Tisch legen will oder kann?
Ich frage mich, woher eigentlich das Gerücht kommt, dass man man mit AMD-GPUs kein RT nutzen könne? Einzig alles auf Max in 4K bei 144FPS aufwärts klappt nicht wirklich, will man kein Daumenkino haben - aber das packt in entsprechend mit RT/PT-Funktionen ausgestatteten und grafisch fordernden Titeln wie z.B. Cyberpunk2077 nicht einmal die stärkste RTX4090.

Wer dagegen in der Lage ist, halbwegs intelligent mit den (hoffentlich) vorhandenen Reglern umzugehen, dem zaubert auch eine RX6800XT (oder besser / neuer) selbst in 4k eine wunderschön brilliante Grafik bei akzeptablen FPS auf den Bildschirm. Für mich spielt sich ein Cyberpunkt in 4k auf einer 6900XT(XH) mit aktiviertem RT bei etwas reduzierten Reglern (und ohne PT) bei durchschnittlich 45 FPS jedenfalls absolut flüssig und angenehm und sieht einfach genial gut aus.

RT/PT sind bei den Leistungen der heutigen GPUs halt absolut nichts für kompetitive Shooter-Erlebnisse, egal welche GPU man kauft - und nur da braucht's dann meist FPS weit jenseits 60. Aber ein F1-Rennwagen ist auch nicht so komfortabel zu fahren wie ein Straßen-Porsche, aber halt auch nur so in der Lage in der schnellsten Rennsportformel konkurrenzfähig zu fahren - schnell sind trotzdem beide. Also einfach das passende Setup für das bevorzugte Spielerlebnis nehmen. Und wer die vermeintlich "Eierlegende-Wollmilchsau" braucht, muss halt entsprechend den Geldbeutel aufmachen.:devil:
 
Also ich bin jetzt von einer 7800xt auf die 4070 Super gewechselt und bereue es nicht. Die Karte ist Spürbar schneller und verbraucht einen Bruchteil des Stroms.
Mit Frame Limiter bin ich beim Verbrauch oft unter 100 Watt je nach Spiel und DLSS schaut einfach Mega gut aus. Hatte ich so nicht auf dem Schirm.
Und endlich kann ich Raytracing gut nutzen.

Dazu rockt die Karte in DaVinci Resolve mit CUDA alles weg. So eine Performance Steigerung hatte ich nicht erwartet bei nur etwas höherer Leistung wie der 7800XT.
Und auch solche Geschichten wie Shadow Play hab ich echt vermisst.

Speichermangel hatte ich bis jetzt noch nicht, hab die Karte aber auch erst ein paar Tage.
 
So in etwa hatte ich die ursprüngliche 4070 erwartet. Preis ist natürlich unverschämt für eine 70er Karte, aber die Rekord-Margen müssen gehalten werden. :rollen:
Ein Ampere 8nm(10nm) Wafer kostete Nvidia noch 6 bis 8000 Dollar. Ein aktueller TSMC 5nm Wafer kommt auf knapp 20 000, ob das unverschämt ist, weiß ich nicht, ich finde es ok. =)
die einzige Alternative wären (unwirtschaftliche) 24 GiByte. Die Idee, endlich 1,5-GiByte-Chips fertigen zu lassen, scheint auf keinerlei Interesse zu stoßen.
Unwirtschaftlich bestimmt nicht, nur passt das nicht in Nvidias Portfolio.
Was würde das kosten? 40 Dollar mehr? Eine 24GB RTX 4070 Super wäre für 100 Dollar mehr ein guter Konkurrent zur 7900XT.
 
Wieviele CPUs bekommt man pro Wafer, Bobhais und wie hoch sind entsprechend die Kosten pro Chip?
Chipfläche 4070 ca. 300mm²
Chipfläche 1070 ca. 320mm²

Wenn sich Deine Kosten auf einen 200mm Wafer beziehen, bekommt man keine 100 Chips pro Wafer, denn es gibt eine Menge "Verschnitt", also im besten Fall sind das dann 80,-€ zu 200,-€. Wenn Nvidia alleine für die Herstellkosten eines Chips 200,-€ berappen muss, finde ich die Grafikkartenpreise zusammen mit Entwicklung, Platinen, Treibern, etc gar nicht mehr so hoch.
 
Zuletzt bearbeitet:
Bei den Beiträgen ist es erstaunlich, wie viele doch den Zusammenhang von Chip zu Speicher nicht kennen und den Zusammenhang mit dem Speicherbus und warum man eben nicht einfach 16GB an eine 4070 kleben kann. Auch wird ganz außer Acht gelassen, dass quasi jede moderne und in Zukunft eingesetzte Engine anders mit dem VRAM umgeht. Ubisoft ist mit Snowdrop zwar immer noch doof, aber z.B. Unreal kommt mit der Menge locker klar, in WQHD sowieso. Das 8GB in vielen Fällen zu wenig sind, das stimmt wohl, bei 12GB sehe ich das noch nicht. Da wird die Raytracing-Performance später viel wichtiger sein, als die Menge an VRAM.

Wieviele CPUs bekommt man pro Wafer, Bobhais und wie hoch sind entsprechend die Kosten pro Chip?
Chipfläche 4070 ca. 300mm²
Chipfläche 1070 ca. 320mm²

Die Fläche ist ja eigentlich irrelevant, es kommt auf die Komplexität an und wieviel Technik in der Fläche untergebracht wird. Und dann muss der Chip ja auch entsprechend angebunden sein, was die Komplexität der Karte als ganzes erhöht. Kostet ja nicht weniger, wenn man mehr Bauteile verbauen muss.
 
Ich frage mich, woher eigentlich das Gerücht kommt, dass man man mit AMD-GPUs kein RT nutzen könne? Einzig alles auf Max in 4K bei 144FPS aufwärts klappt nicht wirklich, will man kein Daumenkino haben - aber das packt in entsprechend mit RT/PT-Funktionen ausgestatteten und grafisch fordernden Titeln wie z.B. Cyberpunk2077 nicht einmal die stärkste RTX4090.

Wer dagegen in der Lage ist, halbwegs intelligent mit den (hoffentlich) vorhandenen Reglern umzugehen, dem zaubert auch eine RX6800XT (oder besser / neuer) selbst in 4k eine wunderschön brilliante Grafik bei akzeptablen FPS auf den Bildschirm. Für mich spielt sich ein Cyberpunkt in 4k auf einer 6900XT(XH) mit aktiviertem RT bei etwas reduzierten Reglern (und ohne PT) bei durchschnittlich 45 FPS jedenfalls absolut flüssig und angenehm und sieht einfach genial gut aus.

RT/PT sind bei den Leistungen der heutigen GPUs halt absolut nichts für kompetitive Shooter-Erlebnisse, egal welche GPU man kauft - und nur da braucht's dann meist FPS weit jenseits 60. Aber ein F1-Rennwagen ist auch nicht so komfortabel zu fahren wie ein Straßen-Porsche, aber halt auch nur so in der Lage in der schnellsten Rennsportformel konkurrenzfähig zu fahren - schnell sind trotzdem beide. Also einfach das passende Setup für das bevorzugte Spielerlebnis nehmen. Und wer die vermeintlich "Eierlegende-Wollmilchsau" braucht, muss halt entsprechend den Geldbeutel aufmachen.:devil:
Weil das AMD Gegenstück nicht an die RT Leistung heran kommt. Dein Autovergleich hinkt doch sehr. Wenn ich jetzt nur 45 FPS erreiche, was hab ich dann in 1 bis 2 Jahren?! Und mir gefällt dlss auch deutlich besser als fsr.
 
Zu wenig Hubraum und nicht unter 16 Liter, da hat dein Berater nicht ganz unrecht.
Jop, da spricht der Raff auch mir aus der Seele. Keine min. 16Gb, kein kauf. Wirklich schade, denn die 4070 Ti Super bittet einen für ein gutes Custom Modell wohl mit über 900 Euronen zur Kasse, und das macht dann schon wieder mächtig aua im im Geldsack.:-(
 
Abgasturbolader + variable Nockenwellensteuerung regelt auch :D

Und genau das hat NVIDIA erfunden: DLSS

Das ist nicht anderes als ein Abgasturbo... >> ein Ersatz für Leistungssteigerung bei weniger Hubraum. Eine auf Lebenszeit anfälligere, dafür spritsparende und gut in den Rücken kickende Alternative. ABER, es gibts nicht besser, als Leistung aus Hubraum, egal obs um Haltbarkeit, Sound oder Power in hoher Drehzahl geht. Und hier ist es ähnlich.

Gott, in 50 Jahren wird kein Mensch mehr unseren Vergleich mit Motoren verstehen.
"Wie kann denn die Induktionsspule mehr Hubraum brauchen? Was ist das eigentlich? Haben dann die Elektromagneten mehr Platz oder bezieht sich das auf den Akku? Kann man damit lauter hupen? :what:"
 
Zuletzt bearbeitet:
Laut Jedec sind aber 1,5GB Module spezifiziert. Es wäre also ein "einfaches", eine 4070 mit 18GB Speicher auszurüsten

Spezifizierung und technische Machbarkeit sind aber zwei verschiedene Paar Schuhe. Wenn es tatsächlich so einfach wäre hätten wir schon breite Verfügbarkeiten mit dieser Bestückung (auch seitens AMD und Intel). Und letztlich muss Hersteller auch auf den Zulieferer zurückgreifen und ob der das auch umsetzt ist wieder ein weiteres Paar Schuhe. 1,5GB-Speicher sind quasi nicht verfügbar (für den Consumer) und mit GDDR7 wird dieser sicher auch erst gar nicht verfügbar gemacht werden. Da kommen einfach 2GB Module und GPUs mit einseitiger/doppelseitiger Bestückung (16, 20 , 24GB, 5090 mit 48GB doppelseitig) und mit Glück 4GB-Speichersteine irgendwann.

Lassen wir uns überraschen, nächstes Jahr ist es soweit.
 
Zurück