News RTX 4070 Ti im CES-Livestream ab 17 Uhr: Community spekuliert über Preise

Sorry, aber das ist doch echt totaler Blödsinn. Die 1070 hatte 8 GB, die 2070 hatte 8 GB und die 3070 hatte 8 GB - und keine der Karten litt auch nur in annähernd ernstzunehmender Weise unter Speichermangel (wenn auch der 3070 10 GB nicht schlecht zu Gesicht gestanden hätten). Aber die 4070, die braucht jetzt unbedingt gleich 20(!) Geht's noch? Zumal DLSS den Speicherbedarf zusätzlich senkt.
Ich kann seine Sorgen schon verstehen, darum auch meine Aussage, dass 16GB in der heutigen Zeit und v.A. bei dem Preis angemessen wären. Die 3070 kam kurz vor der PS5 raus. Die hat - ebenso wie die XBOX Series X - 16GB GDDR6 - die müssen zwar auch für System und Co. herhalten, aber die XBOX Series X hält allein für die Grafikeinheit 12GB bereit, während das bei der PS5 variabel sein soll. Da Spiele idR für Konsole entwickeln und dann auf den PC portiert werden, richten sich Spieleentwickler selbstverständlich nach den Zahlen. Bei der Portierung gibt es idR immer einen Performanceverlust, so dass eine Oberklasse-GPU - das ist die 4070Ti bei dem Preis - mehr als nur 12GB VRAM haben sollte. Die derzeitige Konsolengeneration sollte zumindest bis 2026/2027 halten, so dass man mit 16GB VRAM einige Jahre in WQHD Ruhe haben sollte.
 
Sorry, aber das ist doch echt totaler Blödsinn. Die 1070 hatte 8 GB, die 2070 hatte 8 GB und die 3070 hatte 8 GB - und keine der Karten litt auch nur in annähernd ernstzunehmender Weise unter Speichermangel (wenn auch der 3070 10 GB nicht schlecht zu Gesicht gestanden hätten). Aber die 4070, die braucht jetzt unbedingt gleich 20(!) Geht's noch? Zumal DLSS den Speicherbedarf zusätzlich senkt.
Die RTX 3070 (Ti) ist zweifellos unterbestückt, wenn man sich jenseits von WQHD-Rasterizing bewegt. Das haben wir mehrfach nachgewiesen und die Fälle häufen sich zunehmend. Nvidia bewarb diese Grafikkarte als Raytracing-Wunder (und der RTX 2080 Ti überlegen), "vergaß" dabei jedoch, dass die schöne neue Welt auch eine Datenflut bedeutet. Warum wird das denn ständig schöngeredet, wer hat etwas davon? Ich verstehe es nicht, wirklich. Bei AMD ist es anders herum, da wird mit Speicher geklotzt, aber die Rechenkraft fürs Raytracing "vergessen". Beides nervt und hemmt den Fortschritt. Übrigens helfen die paar Megabytes, die DLSS einspart, nicht in Härtefällen, sie zögern das Unvermeidliche nur hinaus.

MfG
Raff
 
Warum wird das denn ständig schöngeredet, wer hat etwas davon? Ich verstehe es nicht, wirklich.
Habe ja selber gesagt, dass die 3070 mehr Speicher hätte vertragen können.

Aber es ging nicht um 10 oder 12 und auch nicht um 16, sondern um 20+ GB, ohne die es angeblich heute nicht mehr geht. Und das zu bestreiten, hat nun wirklich nichts mit Schönrednerei zu tun.
 
20 GiB braucht man natürlich nicht, das ist Quatsch. Aber mehr als 12 GiB kann man mit gut 40 TFLOPS an Rechenleistung durchaus gewinnbringend einsetzen - nicht in Mainstream-Settings. Aber das ist nur eine Frage der Zeit. So und so: Die "ewige 8" stirbt endlich auch bei Nvidia, 12 wird zum Mainstream. Das ist überfällig, wenn man bedenkt, dass die erste 8-GiB-Karte im Jahr 2014 erschienen ist! Das war übrigens diese hier: https://www.pcgameshardware.de/Graf...-GiB-VRAM-UEFI-Version-fuer-690-Euro-1129613/

MfG
Raff
 
Das halte ich für ein Gerücht, mein Skyrim frisst schon 17GB:ugly:
Der tatsächliche Bedarf und die genutzte (allozierte) Menge unterscheiden sich. Grafikkarten mit viel Speicher erlauben es, dass Spiele den VRAM auch nicht unmittelbar benötigten Daten belegen - dafür ist Speicher ja da. Mit hohen Auflösungen (= große Bildpuffer) und rustikal/grob streamenden Engines/Spielen (wie Skyrim) kriegt man die berüchtigten "Speicherkrüppel" tatsächlich am zuverlässigsten platt.

MfG
Raff
 
Sorry, aber das ist doch echt totaler Blödsinn. Die 1070 hatte 8 GB, die 2070 hatte 8 GB und die 3070 hatte 8 GB - und keine der Karten litt auch nur in annähernd ernstzunehmender Weise unter Speichermangel (wenn auch der 3070 10 GB nicht schlecht zu Gesicht gestanden hätten). Aber die 4070, die braucht jetzt unbedingt gleich 20(!) Geht's noch? Zumal DLSS den Speicherbedarf zusätzlich senkt.
Wenn du die offiziellen FarCry HD Texturen oder so reinmachst, dann sind die 8GB schnell eine Bremse.
Hardware Unboxed hat einen Test dazu gemacht.
 
Wenn du die offiziellen FarCry HD Texturen oder so reinmachst, dann sind die 8GB schnell eine Bremse.
Hardware Unboxed hat einen Test dazu gemacht.
Far Cry 6 ist übrigens das einzige moderne Spiel, das bei Speichermangel richtig schön ehrlich/oldschool und hart einbricht. Andere Engines lassen dann einfach Oberflächendetails weg und tun so, als wäre alles dufte - daher wird so oft behauptet, der Speicher reiche, obwohl längst Mangelwirtschaft herrscht.

Hier ganz deutlich: https://www.pcgameshardware.de/Rade...-XTX-7900-XT-Test-Benchmark-Review-1409055/4/

VRAM Galore.png

Wo die RTX 4070 Ti liegen wird, lässt sich ziemlich sicher voraussagen. ;)

MfG
Raff
 
Wenn du die offiziellen FarCry HD Texturen oder so reinmachst, dann sind die 8GB schnell eine Bremse.
Hardware Unboxed hat einen Test dazu gemacht.
Gähn, FC6 kommt immer an dieser Stelle. Wäre schön, wenn den Leuten mal irgendwas anderes einfallen würde, echt. Im Übrigen kommt im Intro des Spiels nicht umsonst das AMD-Logo vor. Abgesehen davon, braucht auch dieses HD-Pack 12 GB, und nicht die 20+ GB, um die es in der Diskussion ging.
 
20 GiB braucht man natürlich nicht, das ist Quatsch. Aber mehr als 12 GiB kann man mit gut 40 TFLOPS an Rechenleistung durchaus gewinnbringend einsetzen - nicht in Mainstream-Settings. Aber das ist nur eine Frage der Zeit. So und so: Die "ewige 8" stirbt endlich auch bei Nvidia, 12 wird zum Mainstream. Das ist überfällig, wenn man bedenkt, dass die erste 8-GiB-Karte im Jahr 2014 erschienen ist! Das war übrigens diese hier: https://www.pcgameshardware.de/Graf...-GiB-VRAM-UEFI-Version-fuer-690-Euro-1129613/

MfG
Raff

Wobei 16GB eben auch nur aktuell sicher aussehen, es gibt ja auch heute schon Spiele die durchaus mehr zuordnen können. 8GB ist 2023 inakzeptabel für mehr als eine Einstiegs-GPU, 12GB ist Mindestmaß für die Mittelklasse, 16GB sollten für Performanceklasse sein, wirklich sicher ist man mit 20GB und mehr.

Auf der anderen Seite stellt sich halt auch die Frage wie groß der Qualitätsverlust bei 12GB sein wird, da die meisten Spiele ja heute recht geschmeidig ihren VRAM Hunger an den verfügbaren VRAM anpassen.
 
Bei AMD ist es anders herum, da wird mit Speicher geklotzt, aber die Rechenkraft fürs Raytracing "vergessen". Beides nervt und hemmt den Fortschritt. Übrigens helfen die paar Megabytes, die DLSS einspart, nicht in Härtefällen, sie zögern das Unvermeidliche nur hinaus.

MfG
Raff
Aber AMD macht schon deutliche Schritte nach vorne, was RT Leistung betrifft.
Es ist natürlich nicht so ein Schritt wie NV das macht, aber Sie machen es. ?✌️
 
Der tatsächliche Bedarf und die genutzte (allozierte) Menge unterscheiden sich. Grafikkarten mit viel Speicher erlauben es, dass Spiele den VRAM auch nicht unmittelbar benötigten Daten belegen - dafür ist Speicher ja da. Mit hohen Auflösungen (= große Bildpuffer) und rustikal/grob streamenden Engines/Spielen (wie Skyrim) kriegt man die berüchtigten "Speicherkrüppel" tatsächlich am zuverlässigsten platt.

MfG
Raff
Ist natürlich alles richtig was du schreibst.
Zum Glück haben wir inzwischen eine große Auswahl an Grafikkarten mit verschiedenen VRAM Bestückungen und jeder kann nach seinem persönlichen Use Case entscheiden.
 
Gähn, FC6 kommt immer an dieser Stelle. Wäre schön, wenn den Leuten mal irgendwas anderes einfallen würde, echt. Im Übrigen kommt im Intro des Spiels nicht umsonst das AMD-Logo vor. Abgesehen davon, braucht auch dieses HD-Pack 12 GB, und nicht die 20+ GB, um die es in der Diskussion ging.
Worst Case Szenarios sind aber durchaus immer sinnvoll.
Ignoriert man die, ist auch eine Intel Arc eine super Karte. Und ein Bulldozer war nie schlecht. Und und und.
 
Na ja, also nichts wirklich neues. Dass man sich aber im Artikel erwähnten Kommentar darüber wundert:

"...die RTX 4070 Ti würde "in jeder Hinsicht gegenüber einer 4090 in Bezug auf Leistung und Preis" verlieren."

Während die RTX 4090 Je nach Modell 2-3x soviel kostet, finde ich dann schon etwas amüsant...

Sicherlich, ist günstig was anderes, sollte die Karte für den Preis aber einer
3090 oder 3090Ti Konkurrenz machen, (was sie auf dem Papier mit 40.1 TFLOPS ja macht)
muss ich bei aller Liebe sagen, dass man sich da dann wohl etwas zu sehr am Namen der Karte
und deren vermeintlicher Positionierung im unteren
Mittelfeld des High End Marktes aufhängt... :ka:

Dann würde mich der Versuch die Karte als 4080 12G zu vermarkten nicht mal wundern.
Es wäre aber eventuell klüger gewesen die RTX 4080 16G in RTX 4080Ti umzubenennen...

Schließlich gab es ja sogar schon 85er, Super, Ultra und "hastenichtgesehen" Modelle...
 
Zuletzt bearbeitet:
Worst Case Szenarios sind aber durchaus immer sinnvoll.
Ignoriert man die, ist auch eine Intel Arc eine super Karte. Und ein Bulldozer war nie schlecht. Und und und.
Extrembeispiele und Ausnahmen sind aber nun mal nicht sehr praxisrelevant und haben letztlich kaum mehr als anekdotischen Wert.

Am Ende ist's doch auch völlig egal, was wie hier schreiben: Wenn die Leute massenhaft eine 8 GB-3070 gekauft haben, werden sie erst recht - sofern sie ihnen nicht zu teuer ist - massenhaft eine 12 GB-4070(Ti) kaufen.
 
Extrembeispiele und Ausnahmen sind aber nun mal nicht sehr praxisrelevant und haben letztlich kaum mehr als anekdotischen Wert.
nein, weil ich eine Karte kaufe die dann nicht den Erwartungen entsprechend funktioniert.
Hardware muss bei mir immer auch im Worst case funktionieren. Es bringt mir all die theoretisch verfügbare Leistung nix, wenn sie teilweise nicht auf die Straße kommt.
Der FC Test zeigt halt was passiert wenn man in ein Bottleneck rein rennt.
Am Ende ist's doch auch völlig egal, was wie hier schreiben: Wenn die Leute massenhaft eine 8 GB-3070 gekauft haben, werden sie erst recht - sofern sie ihnen nicht zu teuer ist - massenhaft eine 12 GB-4070(Ti) kaufen.
Das mag durchaus so sein. Ich beobachte die Situation und kauf erst in ein paar Jahren bei höherer RTRT Performance und Speicher
 
Zurück