News Geforce RTX 4070 Super: Nvidias neuer Preis-Leistungs-Sieger in der Grafikkarten-Oberklasse

Es sind komischerweise immer die selben User die den selben Hersteller vehement verteidigen, als ginge es um Leben (RT) oder Tod (Raster). Argumente werden solange gebogen, bis Diese passen. So was nennt sich Politik.
Zum Thema und Hypothese:
Wenn in einem RT-Titel der VRAM vollläuft, was macht man? Runterdrehen und Matsch geniessen oder aufs Rasterizing zurückgehen? Und DAS könnte mit 12 GiB VRAM schneller passieren, als man möchte.
Jeder wie er/sie mag. Ich bleibe da gleich bei Option2 :D
Gruß T.
 
Es sind komischerweise immer die selben User die den selben Hersteller vehement verteidigen, als ginge es um Leben (RT) oder Tod (Raster). Argumente werden solange gebogen, bis Diese passen. So was nennt sich Politik.
Zum Thema und Hypothese:
Wenn in einem RT-Titel der VRAM vollläuft, was macht man? Runterdrehen und Matsch geniessen oder aufs Rasterizing zurückgehen? Und DAS könnte mit 12 GiB VRAM schneller passieren, als man möchte.
Jeder wie er/sie mag. Ich bleibe da gleich bei Option2 :D
Gruß T.
Das kann man genau so umdrehen.
Es sind immer die selben, mit den selben Argumenten.

Schau dir die RT Leistung an, es ist nicht unwahrscheinlicher, das AMD die RT Leistung vorher ausgeht, als Nvidia der VRam.

Und das könnte mit AMD Karten schneller passieren, als man möchte. Bzw. ist schon öfter passiert, deswegen braucht man RT ja nicht.

Versucht doch mal weniger schwarz - weiß.
Nehmt euch doch mal benchs der Letzten 12 Monate und schaut, wie oft 12GB ein Problem waren und wie oft RT bei AMD (gleiche Preisklasse zu den 12GB Nv karten natürlich um Fair zu bleiben).

Unterm Strich nimmt sich das nicht viel. Es muss in beiden Varianten Verzicht geübt werden...
 
Schau dir die RT Leistung an, es ist nicht unwahrscheinlicher, das AMD die RT Leistung vorher ausgeht, als Nvidia der VRam.

Und das könnte mit AMD Karten schneller passieren, als man möchte. Bzw. ist schon öfter passiert, deswegen braucht man RT ja nicht.
Ich glaub, da liegt ne falsche Verknüpfung vor...
Den meisten AMD Kunden ist RT generell nicht so wichtig, als dass man dafür extra Geld ausgeben würde.
Daher ist die zusätzliche RT Leistung in 1-2 Spielen, die man eventuell besitzt, weniger wichtig, als z.B. bei Hogwarts Legacy auf nachladende Texturen zu starren.

Nichts ist schlechter, als nicht vorhandene Texturen.


Ist halt wie immer eine Frage der Prioritäten.
Ist RT das wichtigste Kriterium, dann eindeutig Nvidia.
Wenn nicht, gibt es woanders schlicht mehr fürs Geld.
 
Ich glaub, da liegt ne falsche Verknüpfung vor...
Den meisten AMD Kunden ist RT generell nicht so wichtig, als dass man dafür extra Geld ausgeben würde.
Daher ist die zusätzliche RT Leistung in 1-2 Spielen, die man eventuell besitzt, weniger wichtig, als z.B. bei Hogwarts Legacy auf nachladende Texturen zu starren.

Nichts ist schlechter, als nicht vorhandene Texturen.


Ist halt wie immer eine Frage der Prioritäten.
Ist RT das wichtigste Kriterium, dann eindeutig Nvidia.
Wenn nicht, gibt es woanders schlicht mehr fürs Geld.
Ja, du verknüpfst das gerade falsch;)

Es funktioniert nicht pauschal.

Ich habe ein Beispiel genannt.
Wenn xy RT möglichst on haben will.

Verweise aber immer darauf, das wer anders da andere Kriterien anlegen kann.✌️
 
Ich finde den Abverkauf der 4070Ti spannend.
(da war wohl doch ganz schön Spielraum beim Einkaufspreis)

Da braucht man sich dann auch nicht mehr preismäßig zw. 7900xt und Ti groß entscheiden, sondern
schaut eher nach Feature+Ausstattung.
Ne Super würde ich eher mit der GRE vergleichen.
 

Anhänge

  • 4070Ti@749€.JPG
    4070Ti@749€.JPG
    15,9 KB · Aufrufe: 15
Ich finde den Abverkauf der 4070Ti spannend.
(da war wohl doch ganz schön Spielraum beim Einkaufspreis)

Da braucht man sich dann auch nicht mehr preismäßig zw. 7900xt und Ti groß entscheiden, sondern
schaut eher nach Feature+Ausstattung.
Ne Super würde ich eher mit der GRE vergleichen.
Sehe ich auch so, wobei die xtx noch wieder auf max 900€ für die hellhound fallen könnte. Und 4080 müsste auch bei knapp 1000 jetzt losgehen...
 
Raffs Meinung zum Thema Nvidia RTX 4070 Ti Super und Raytracing .

Zitat:
Bildhübsches Raytracing hält in immer mehr Spielen Einzug, sodass eine neu angeschaffte Grafikkarte darauf vorbereitet sein sollte. Der Raytracing-Leistungsindex 2024 macht keine Gefangenen, um diese Frage zu beantworten. Aufwärmübungen wie Far Cry 6 und World of Warcraft sind Geschichte, die neuen Benchmarks fordern den Grafikkarten deutlich mehr ab, um deren Zukunftstauglichkeit abzuklopfen. Wie Sie im Folgenden sehen, vereinen wir das "Who's who" der aktuellen Raytracing-Implementierungen, deren Nutzwert nicht infrage steht - die Leistung der Grafikkarte entscheidet, ob man die Aufwertung in Anspruch nehmen kann.


Wo da die Amd Karten landen kann im Link jeder selber sehen .

In Cyberpunk 2077 schafft es Amd,s " Stärkste Karte " Rx 7900Xtx 24 GB nicht mal mehr in flüssige 60 FPS:devil:

Das schafft sogar die viel günstigere Nvidia RTX 4070 super mit 12 GB weniger VRAM und erheblich weniger Energiebedarf .:daumen:
 
Ja genau deswegen wird darüber auch so viel Berichtet und Getestet über laufend neue Games mit Raytracing .:schief:

Weils auch in 5 Jahren nur ein Gimmick sein wird .:rolleyes:
Da kann auch noch so viel getestet und berichtet werden, das ändert ja nicht an der Verbreitung der Technologie wenn die ganzen Hardware journalisten Raytracing benchmarks machen, die ganzen Leute aber mit 3050er und 3060er bzw. AMD äquivalenten Karten unterwegs sind. Die meistgespielten Spiele haben entweder kein Raytracing oder niemand nutzt es weil die FPS wichtiger als die paar Lichteffekte, Spiegelungen etc. sind. Bei Konsolen ist das ähnlich, und das wird sich auch erst mit den großen UE5 Titeln und den neuen Konsolen ändern, also in ein paar Jahren. Einfach mal die Blase zum Platzen bringen und über den Tellerrand hinausschauen, da merkt man dann auch, dass WQHD und eine 4070 eher Nische als Standard sind.
 
Da kann auch noch so viel getestet und berichtet werden, das ändert ja nicht an der Verbreitung der Technologie wenn die ganzen Hardware journalisten Raytracing benchmarks machen, die ganzen Leute aber mit 3050er und 3060er bzw. AMD äquivalenten Karten unterwegs sind. Die meistgespielten Spiele haben entweder kein Raytracing oder niemand nutzt es weil die FPS wichtiger als die paar Lichteffekte, Spiegelungen etc. sind. Bei Konsolen ist das ähnlich, und das wird sich auch erst mit den großen UE5 Titeln und den neuen Konsolen ändern, also in ein paar Jahren. Einfach mal die Blase zum Platzen bringen und über den Tellerrand hinausschauen, da merkt man dann auch, dass WQHD und eine 4070 eher Nische als Standard sind.
Naja, schlaft ihr hinterm Mond, könnte man fragen... Ich sehe eine ganz klare Tendenz, siehe die letzten 10-12 großen Spieleproduktionen, die auch einen Techniktest erforderten. Spiele die eh nicht fordernd sind, sind eh Latte.

Hier sind einige dabei und das alles als unnütz abzutun finde ich falsch.

Wenn gerade von den Grafikkrachern, weswegen man sich überwiegend dicke GPUs kauft 40-50% jetzt mit RT kommen und das auch die beste Optik bietet, kann ich solche Aussagen nicht wirklich nachvollziehen.

Selbst wenn es nur 20% der Grafikkracher wären.

Aber gut, der spielt gerne noch in 20 Jahren in 720p, der andere möchte gerne so früh wie möglich, die bestmögliche Grafik.


Wieso ist WQHD jetzt eine Nische?
Wir sind hier auch bei PCGH und da interessiert mich nicht das Weltweit vielleicht der Anspruch niedriger ist.
 
Naja, schlaft ihr hinterm Mond, könnte man fragen... Ich sehe eine ganz klare Tendenz, siehe die letzten 10-12 großen Spieleproduktionen, die auch einen Techniktest erforderten. Spiele die eh nicht fordernd sind, sind eh Latte.
Hinterm Mond schlafen ist das sicher nicht.
Denk dran, deutlich über 70% der GPU Käufer haben ein Budget bei unter bzw. gerade so um €300.
WQHD und UHD und besonders RT sind so halt eindeutig Nische.
Alle 4000er GPUs zusammen kommen im Steam Survey auf 12,46% Anteil.
Dazu kommen nochmal 7,38% für Alle 3000er ab der 3080.
Zusammen also unter 20% Anteil
Davon können aber nur die 4000er DLSS FG benutzen.
Also sind die 3000er bei Alan Wake und ähnlich anspruchsvollen RT / PT Spielen komplett raus.

Und 12,5% ist echt alles andere als Mainstream.
Deshalb gibt es auch wirklich nur sehr, sehr wenige Spiele, die RT so intensiv einsetzen.

UHD kommt als Hauptauflösung übrigens auf 3,77%
WQHD mitsamt den 1600p und 1800p derivaten auf knapp 20%
FHD - also 1080p - ist bei knapp 59,6%.

Allein die Hardwarepreise - gewollt hochgehalten durch Verknappung (Hat Jensen ja immerhin selbst angekündigt) - verhindern eine Verbreitung von RT.
Vollkommen unabhängig, wie sehr hier in der Hardware Spezialisten Blase davon berichtet wird.

Edit:
Nvidia hat schon 2012 mit der GTX 680 eine Karte mit 4K Fähigkeit beworben... also vor fast 12 Jahren.
Innerhalb dieser Zeit hat es das ganze Marketing um 4k nicht geschafft, mehr als eine Nische zu schaffen.

Wenn ich ner kurzen Suche glauben kann, kam der erste echte FHD Monitor 2006 raus - ein BenQ Modell.
Also gerade mal 6 Jahre davor.

4k hatte also inzwischen doopelt so lange Zeit, wie die Spanne zwischen FHD und 4k war, um Mainstream zu werden.... Die Kosten verhindern es effektiv.

Edit2:
Den ersten Consumer UHD Monitor gab es übrigens 2013.
Den ersten UHD Monitor an sich allerdings schon 2001.
 
Zuletzt bearbeitet:
Wir sind hier auch bei PCGH und da interessiert mich nicht das Weltweit vielleicht der Anspruch niedriger ist.
Das ist aber doch das Ding.
Und das meinte ich gestern auch bzw. meintest du das wir hier von PCGH Forum Mitgliedern ausgehen.

Du darfst nicht vergessen, das die PCGH nicht nur hier im Forum stattfindet.
Sondern auch auf YT etc.

Da informieren sich alles mögliche an Leuten.

Da interpretiert der 08/15 User und eher Nvidia geneigte - wie gestern bei der VRAM Thematik auch - für sich sehr schnell rein, das er mindestens eine 4070TiS kaufen muss.

Ich hab exakt das jetzt auch erst wieder mit jemanden erlebt, der innerhalb von 9 Monaten von einer 3070Ti auf eine 4070Ti und nun einfach radikal direkt auf eine 4090 gewechselt ist.

Gespielt wird WoW...
Und das Thema ist immer das selbe -> VRAM, VRAM, VRAM :nene:

Weil mit vielen der Infos die von Fachmagazinen rausgegeben werden, der ein oder andere gar nichts anfangen kann im Detail.

Sondern es ist immer ein: "Ja aber ich hab gehört."

"Ja aber selbst wenn VRAM bei dir nicht mal ´nen Problem ist in deinem Anwendungsfall und die Leistung du doch mit zufrieden bist, kauf doch dann eine 4070TiS, wenn es dir mit mehr VRAM besser geht."

Er kauft - wie gesagt - eine 4090.
Gut sein Geld...

Ich schlag mich aber mit solchen Leuten rum :wall: net die Fachmagazine.
 
Zuletzt bearbeitet:
Hinterm Mond schlafen ist das sicher nicht.
Denk dran, deutlich über 70% der GPU Käufer haben ein Budget bei unter bzw. gerade so um €300.

Interessiert mich hier im PCGH Forum nicht die Bohne.
WQHD und UHD und besonders RT sind so halt eindeutig Nische.
Hier im Forum sicher nicht.
Alle 4000er GPUs zusammen kommen im Steam Survey auf 12,46% Anteil.
Und hier im Forum.
Dazu kommen nochmal 7,38% für Alle 3000er ab der 3080.
Zusammen also unter 20% Anteil
Davon können aber nur die 4000er DLSS FG benutzen.
Also sind die 3000er bei Alan Wake und ähnlich anspruchsvollen RT / PT Spielen komplett raus.
Und, siehe zuvor.
Und 12,5% ist echt alles andere als Mainstream.
Deshalb gibt es auch wirklich nur sehr, sehr wenige Spiele, die RT so intensiv einsetzen.
Wofür kaufen wir Experten ;) aus dem Forum dicke GPUs, für fette Grafik in neuen Spielen.
UHD kommt als Hauptauflösung übrigens auf 3,77%
WQHD mitsamt den 1600p und 1800p derivaten auf knapp 20%
FHD - also 1080p - ist bei knapp 59,6%.
Und hier bei uns!
Allein die Hardwarepreise - gewollt hochgehalten durch Verknappung (Hat Jensen ja immerhin selbst angekündigt)
Lisa hat das auch angekündigt und durchgezogen.
- verhindern eine Verbreitung von RT.
Naja, eigentlich nur dir mangelnde Leistung von AMD Hardware, da diese auch in den Konsolen steckt. Ist das schon ein entsprechender Anteil des Warums.
Vollkommen unabhängig, wie sehr hier in der Hardware Spezialisten Blase davon berichtet wird.
Ich rede hier nicht von allen Gamern auf der Kugel, sondern von denen die sich auch gerne eine GPU von 500 bis 1500€ zum Beispiel kaufen. Spinner wie wir, die hier im Forum herumtigern.
Edit:
Nvidia hat schon 2012 mit der GTX 680 eine Karte mit 4K Fähigkeit beworben... also vor fast 12 Jahren.
Innerhalb dieser Zeit hat es das ganze Marketing um 4k nicht geschafft, mehr als eine Nische zu schaffen.

Wenn ich ner kurzen Suche glauben kann, kam der erste echte FHD Monitor 2006 raus - ein BenQ Modell.
Also gerade mal 6 Jahre davor.

4k hatte also inzwischen doopelt so lange Zeit, wie die Spanne zwischen FHD und 4k war, um Mainstream zu werden.... Die Kosten verhindern es effektiv.

Edit2:
Den ersten Consumer UHD Monitor gab es übrigens 2013.
Den ersten UHD Monitor an sich allerdings schon 2001.
 
Naja, eigentlich nur dir mangelnde Leistung von AMD Hardware, da diese auch in den Konsolen steckt. Ist das schon ein entsprechender Anteil des Warums.
Alles unterhalb der extrem teuren 4090 hat nicht genug Leistung.
Und es hindert niemand Nvidia daran, einen leistungsfähigen Chip für die Konsolen zu produzieren.
Dazu ist Nvidia allerdings aktuell nicht in der Lage.
Die Tegra Chips haben deutlich zu wenig Leistung - selbst in der aktuellen Top Version.

RT wird est dann aus der Nische rauskommen, wenn die RT Leistung einer 4090 in der €300 Klasse angekommen ist.


P.S.
In den ganzen Beiträgen davor ging es nie nur um "Hier im Forum"... Hat niemand geschrieben - selbst du nicht.
Also schieb jetzt bitte die Diskussion nicht auf "hier im Forum" um.
 
Interessiert mich hier im PCGH Forum nicht die Bohne.

Hier im Forum sicher nicht.

Und hier im Forum.

Und, siehe zuvor.

Wofür kaufen wir Experten ;) aus dem Forum dicke GPUs, für fette Grafik in neuen Spielen.

Und hier bei uns!
Wusste nicht, dass Jensen und Su hier unterwegs sind und exklusiv für das PCGH Forum produzieren. Spieleentwickler natürlich auch :ugly:
 
Zurück