News Geforce RTX 4070: Nvidia verlangt jetzt 600 US-Dollar für seine Mittelklasse

Und wer ist die Käuferschicht von 900€ Karten? Etwa Leute die gerne Abstriche bei der Grafik machen oder Bock auf Nachladeruckelorgien haben? Eher nicht oder? Ganz im Gegenteil, wir sind im High-End/Enthusiastenbereich. Da wird halt nicht in Full HD gezockt sondern mindestens QHD, eher UWQHD oder gar UHD.
Hier, ich zocke mit der 4070 Ti aktuelle AAA-Titel in UHD ohne Nachladeruckler mit oft dreistelligen fps bei kleinsten Abstrichen in der Grafik in Form von DLSS. Sie erfüllt im Hier und Jetzt jedenfalls alle meine Bedürfnisse, leistet dank breitere DLSS Unterstützung und obendrauf FG in meinen Spielen weit mehr fps als jede Radeon und ist auch noch bedeutend sparsamer. Für eine 4080 oder 4090 zocke ich einfach nicht genug als dass ich sie mir kaufen würde, Im Hier und Jetzt haben die beiden (80er+90er) das viel schlechtere Preis-Leistungsverhältnis, was in 3 Jahren ist, ist mir egal denn zur nächsten Generation verkaufe ich die 4070 Ti wieder und hole mir die nächste obere Mittelklassekarte, so komme ich langfristig in allen Bereichen meist besser weg.
 
Fakt ist auch, dass Texturen auf 8GB in TLou auf High schon die Probleme selbst auf 8GB Karten weitgehend lösen. Die Optik leidet wenig.
Diese Argumentation lässt sich, je nach Leidensfähigkeit, sehr weit dehnen. Wenn ich die Grafik abschalte, komme ich auch mit einer IGP klar. ;) Niemand hat gesagt, dass 8-GiByte-Grafikkarten in den Müll gehören - man sollte aber besser keine Neuware mit dieser Kapazität mehr kaufen.

MfG
Raff
 
Fakt ist auch, dass Texturen auf 8GB in TLou auf High schon die Probleme selbst auf 8GB Karten weitgehend lösen. Die Optik leidet wenig. Inwiefern es wirklich groß Sinn ergeben hätte, auf eine 3070 Ti 16GB zu klatschen, darf bezweifelt werden.

16GB vielleicht nicht, aber 12 oder zumindest 10GB sicher schon. Die 3070Ti ist nach wie vor eine performante Karte, der aber aufgrund des kleinen Speichers bereits in mehreren Titeln die Puste ausgeht. RE 4 Remake ist ein weiteres Beispiel. Da stimmt das Verhältnis von Rasterleistung zu Speicherausstattung einfach hinten und vorne nicht.
 
Naja im Endeffekt hätte es wirklich deutlich schlimmer kommen können. Es stand ja schon lange zur Debatte, dass die 4070 mit nur 10 GB und nur 160Bit Speicherinterface kommt, ist zum Glück beides nicht eingetreten.
Der alte Trick. Übertrieben negative Gerüchte in die Welt setzen, und wenn die Realität dann nicht ganz so negativ ist feiern die Leute ihr "Glück". :daumen:
Fakt ist auch, dass Texturen auf 8GB in TLou auf High schon die Probleme selbst auf 8GB Karten weitgehend lösen. Die Optik leidet wenig.
Im Video von Digital Foundry sagen sie mit 8GB gehen nur mittlere Texturen, sonst liegt man über dem Limit. Und diese mittleren Texturen sehen schlicht ekelhaft aus.

Liegt wohl auch daran, dass das Spiel einfach übertrieben viel VRAM für Windows sperrt, und zwar prozentual. Bei großer Bestückung wird dann entsprechend auch viel ohne Not reserviert. Keine Ahnung was sich Entwickler bei sowas denken. Und solche Spiele werden dann herangezogen um zu zeigen, dass der VRAM-Bedarf explodiert..
 
Niemand hat gesagt, dass 8-GiByte-Grafikkarten in den Müll gehören - man sollte aber besser keine Neuware mit dieser Kapazität mehr kaufen.
Exakt das will ich auch nicht mehr kaufen (weil schon vorhanden für grad noch erträgliche 400 € 2019), leider kommt nix bezahlbares mit 16GB auf den Markt. Daher wird weiter gewartet. Sollten noch mehr machen, ist aber nicht der Fall. Darum gibt es auch die Apothekerpreise.
 
Liegt wohl auch daran, dass das Spiel einfach übertrieben viel VRAM für Windows sperrt, und zwar prozentual. Bei großer Bestückung wird dann entsprechend auch viel ohne Not reserviert. Keine Ahnung was sich Entwickler bei sowas denken.
Das verstehe ich sowieso nicht. Wozu braucht Windows VRAM? Es ist höchstens damit zu erklären, dass Konsolen nicht zwischen RAM und VRAM unterscheiden und es bei der Entwicklung übersehen wurde.
 
Klar gibt es sehr gute Argumente für eine NV Karte. Aber in meinen Augen sind sie nicht so viel (mehr) Geld wert. Die Spirale dreht sich immer weiter nach oben, das muss man kritisieren. Und nicht rechtfertigen, dass die Preise ok sind?!
Du kannst halt nicht erwarten, dass AMD die Preise senkt.
Wenn sie die 6900XT für 999 Dollar verkaufen, werden sie die 7900XTX nicht plötzlich für 799 verramschen, sondern bleiben bei 999 Dollar. AMD ist jetzt auch nicht verdächtig riesen Margen damit zu generieren, Intel schon gleich gar nicht. Die machen eher Miese.
NV macht tolle Produkte, ja. Aber es kann nicht sein, dass sich die Preise jedes mal so dermaßen von Gen zu Gen erhöhen.
Nvidia ist diese Generation viel stärker als AMD, also haben sie den Gewinn mitgenommen.
Die knapp 50% Mehrleistung von 6900XT zu 7900XTX sind jetzt auch nicht von schlechten Eltern. Es gab Generationen da gab es gerade mal 20 bis 30% mehr Leistung, dennoch gibt es überall nur Meckereien.
Da kaufe ich einfach lieber AMD (denn so viel schlechter sind sie nicht) oder gar keine GPU. Aber ich unterstütze die Preistreiberei einfach nicht.
Wenn du die Konkurrenz kaufst, wird das kaum zu einer Preissenkung beitragen.
Und eine ganz schlimmere Preistreiberei sehe ich nicht.
Die 4070 halte ich ehrlichgesagt für ziemlich günstig.
 
Der alte Trick. Übertrieben negative Gerüchte in die Welt setzen, und wenn die Realität dann nicht ganz so negativ ist feiern die Leute ihr "Glück". :daumen:

Naja womit hast Du denn gerechnet, wenn Du Dir Ausstattung und Preis der bisheringen 4000er Modelle anschaust? War doch abzusehen wo die Reise in etwa hingehen wird mit der 4070, allein schon weil das Verhältnis zu den größeren Karten irgendwie halbwegs stimmen muss. Das der Kram im Vergleich zu früher teuer geworden ist, stellt ja Niemand in Frage, aber man muss auch eingestehen, dass das nicht nur an der Geldgier der Hersteller liegt. Die Preise von 2018 wird es nicht mehr geben, das ist leider vorbei. Ist in anderen Branchen auch nicht anders.
 
Die Guten Modelle starten dann bei 720€ oder wie? Am Ende erhält man dann RTX3080 Leistung zur RTX3080 UVP...
Hoch leben die zwei zusätzlichen GB auf der Platine und dem grandiosen DLSS3 :hail: jedenfalls stimmt dann die Effizienz.
Was die Leute gerne vergessen ist wie eng die letzte Generation beieinander lag .

Zwischen 3080/10gb und 3090ti sind's gerade mal 15% Leistungsunterschied (bei 4 verschiedenen Karten)

Zwischen 6800xt und 6950xt sind es auch gerade mal 12-15% leistungsunterschied.
(Bei 3 verschiedenen Karten)
Alles referencedesigns ohne OC

Eine 7800xt wird mutmaßlich in etwa 6900xt Niveau haben..
Das sind 6800xt + 5-10% Leistung
Oder 7900xt -15-20% leistung
Bei ziemlich ähnlichen Stromverbrauch.

Oder anders ausgedrückt.. für 5-10% Mehrleistung innerhalb einer Generation kann AMD es auch gut sein lassen und die 6900xt rebranden..
Preislich werden wir hier ebenfalls 6900xt Leistung zum 6900xt Strassenpreis um die 700-750€ sehen

Beide Hersteller verarschen einen im Moment was die Preisgestaltung angeht. Und auch AMD ist kein Samariter.
 
Tja.... dumme Situation für mich.
Vor einem Jahr ist meine 2070 abgeraucht und um schnell wieder zocken zu können, hab ich mir eine 3070 über Grover besorgt, ~30€/Monat (was damals deutlich günstiger als Neukauf war, die war fast nicht zu kriegen) und habe darauf spekuliert, dass eine 4070 da ist, wenn meine Miete ausläuft.
Das wird jetzt auch passieren. Problem: die XX70er scheint jetzt nicht mehr so geil zu sein, wie noch zu 30er Zeiten (fast dieselbe Leistung einer 2080ti für einen Bruchteil des Geldes).
AMD mag ich aber nicht als Grafikkarte haben. Wat mach ich...
Neukauf wird demnächst fällig, aber ich will was Vernünftiges, gerne mit RT. Ausflösung: FullHD mit DLSS/DSR.

Aber mal eine Frage in die Runde: NVidia hatte doch vor einigen Jahren die 70er-Reihe als Oberklasse tituliert? Wieso ist die jetzt nur noch Mittelklasse?
 
Das verstehe ich sowieso nicht. Wozu braucht Windows VRAM? Es ist höchstens damit zu erklären, dass Konsolen nicht zwischen RAM und VRAM unterscheiden und es bei der Entwicklung übersehen wurde.
Was meinst du denn.. jedes Programm hat mittlerweile grafische animierte Oberflächen..
Selbst der Windows Desktop ist mittlerweile gut animiert..
Browsern inkl Videos die im Hintergrund laufen ect..
Auch die ganzen Launcher (Steam, battlenet.. Origin..EA ect) haben standartmäßig alle Hardwareunterstützung für ihre Oberfläche an.

Da haste schnell 1.3-1.5gb Vram weg
 
Warum genau sollte Nvidia den Preis senken? Abseits vom V-ram macht die 7900XT leistungsmäßig insgesamt ja keinen Stich gegen die Karte und 4K/Ultra HD ist weiterhin eher Nische.
Was erzählst du da für einen Käse? Die 7900XT ist im PCGH Leistungsindex rund 10% schneller. Der RT-Vorsprung der RTX4070Ti ist geringer und das schalten die Meisten aus guten Gründen ohnehin ab. Beim VRAM braucht man bei der 7900XT auch nicht irgendwelche Nerd-Foren stürmen, um seine VRAM-Kapazität zu verteidigen, da ist man einfach sorgenfrei. UHD eine Nische? Nicht so sehr wie Grafikkarten in dieser Preisklasse...
 
Das der Kram im Vergleich zu früher teuer geworden ist, stellt ja Niemand in Frage, aber man muss auch eingestehen, dass das nicht nur an der Geldgier der Hersteller liegt.
Jein. Wir haben momentan ne hohe Inflation, aber deswegen muss man nicht vergessen was vorher war. Die Preise sind schon vor Jahren explodiert, und.. *Überraschung".. nie wieder gesunken (erinnert ein bisl an die aktuelle Situation im Supermarkt).

Gründe waren angeblich böse Miner, Waferpreise, Raytracing verpflichtend für alle (Turing), Corona-Nachfrage/Lieferketten, und jetzt halt die Inflation. Also letzteres kann man verstehen, aber alles was davor war, sollte sich doch mittlerweile gebessert haben? Warum sinken die Preise dann nicht? Also wirklich null? Antwort: Weil wir komplett verar***t werden.

Ist schon komisch: Wenn irgendwo eine Speicher-Fabrik überflutet wird, steigen die Preise, und dann fallen sie wieder. Bei GPUs gibt es aber seit über 10 Jahren nur eine Richtung: nach oben. Ich rede auch nur von Nvidia, weil die den Ton angeben. AMD fährt schon ewig nur in deren Fahrwasser mit.
 
Im Video von Digital Foundry sagen sie mit 8GB gehen nur mittlere Texturen, sonst liegt man über dem Limit. Und diese mittleren Texturen sehen schlicht ekelhaft aus.
Dann schaut HWU wohl nicht so genau hin.
Anyway, man wird diese Problematik sicherlich beheben können. Die Texturen in dem Spiel sind meines Erachtens schwächer als in Devision 2 und da kam man selbst mit 6GB auf high hin.
 
AMD mag ich aber nicht als Grafikkarte haben. Wat mach ich...
Intel kaufen? :ugly:

Mal Ironie beiseite, spricht ja nichts dagegen ne Nvidia zu kaufen, solange man dann nicht darüber rum mosert oder anfängt sich den Kauf schön zu reden und/oder sich dafür zu rechtfertigen.

Ich für meinen Teil werde mal wieder zu AMD wechseln. Ich will mir einfach keine Karte kaufen, deren Vram so auf Kante bestückt ist, dass ich gerade so von FullHD auf WQHD wechseln kann und dann innerhalb von einem Jahr Details runter drehen muss, einfach weil dem Vram die Puste ausgeht.

Die 7900XT ist für mich persönlich der absolute Sweet Spot zwischen Preis/Leistung und Vram Bestückung (Raytracing ist für mich derzeit absolut irrelevant), außerdem betreibe ich Hardware generell ~5+ Jahre, ehe ich auf aktuellere Hardware wechsel.
 
Die 7900XT ist im PCGH Leistungsindex rund 10% schneller. Der RT-Vorsprung der RTX4070Ti ist geringer und das schalten die Meisten aus guten Gründen ohnehin ab.
In der großen Meta Auswertung gewinnt die 4070Ti in Full HD bis WQHD um 5 bis 10% (RT+Raster) und in 4K reicht es immer noch in etwa für ein Unentschieden.
Der RT Vorsprung ist in jeder Auflösung höher als der Raster Vorsprung der 7900XT.

Ich würde jetzt auf den 5 bis 8% Rastervorsprung der 7900XT nicht so sehr rumreiten, wenn bei der Nvidia dann 15% mehr in RT herumkommt.
Ja, absolut, vor allem mit DLSS und FSR spielt heute kaum jemand mehr in UHD.
Die mit Abstand meiste nutzte Auflösung ist WQHD.
 
Wie gesagt, wer nicht an Don Huangs Rockzipfel hängt schaltet RT in den meisten Fällen ab. Lohnt sich einfach nicht bei den Leistungskosten.
Wer glaubt RT-Leistung auf Vorrat kaufen zu können kann sich auch direkt ins Knie schießen.

Edit:
Ich sehe gerade deine Meta Auswertung ist drei Monate alt. Ich habe die Zahlen aus dem aktuellen Heft.
 
Dann schaut HWU wohl nicht so genau hin.
Anyway, man wird diese Problematik sicherlich beheben können. Die Texturen in dem Spiel sind meines Erachtens schwächer als in Devision 2 und da kam man selbst mit 6GB auf high hin.
Guter Punkt. Das vier Jahre alte Division 2 spielt für mich grafisch locker in derselben Liga wie TLOU, mindestens, und das hab ich damals mit einer Ivy Bridge CPU, 8GB RAM und einer GTX 1060 auf hohen Settings gespielt.
 
Aber mal eine Frage in die Runde: NVidia hatte doch vor einigen Jahren die 70er-Reihe als Oberklasse tituliert? Wieso ist die jetzt nur noch Mittelklasse?
Weil sich das Portofolio verändert hat.

Was damals als Titan nicht zu Geforce Produktreihe gezählt wurde, heißt heute 4090 und wird gezählt.

Also wurde aus:

Titan - 80ti - 80 - 70
90 - 80 - 70ti - 70

Wesentlich ist aber, dass sie das Chip-Line-up maßgebend verändert haben.

Aus

102 - Titan / 80ti / 80
104 - 80 / 70ti / 70 / 60ti

wurde

102 - 90
103 - 80
104 - 70ti / 70

Dadurch wuchs der Abstand von der Topkarte zu dem Rest der Chips, weil es nun 3 Chips sind und nicht wie bisher 2.
 
Zurück