News Grafikkarte bei Mindfactory kaufen: RTX-4070-Hoch flacht ab, AMD wieder mit der Oberhand

Nur aus technischer Sicht empfinde ich die 40xx Serie deutlich attraktiver.
Grds. kann man dem ja zustimmen, ist nur eine 4070 bereits deutlich zu schwach um von der "überlegenen" RT Performance wirklich zu profitieren, dazu eben der Fakt, dass RT nachwievor eine Niesche ist und in wievielen Spielen derzeit genutzt werden kann, in wievielen Spielen man davon einen optischen Mehrwert hat? 0,01%?

Nicht falsch verstehen, ich denke auch, dass NV diese Runde wieder einmal gewonnen hat, was aber zu allererst an der 4090 liegt, zu Teilen auch an der 4080 (wobei schon Makel vorhanden sind). In allen Klassen dadrunter wird Nvidia aber zunehmend unattraktiver, selbst die 4080 ist schon "knapp" kalkuliert wenn man sich die VRAM Ausstattung anschaut, wenn auch noch ausreichend und für jemandem in dem Bereich vermutlich eh uninteressant, da man in zwei oder drei Jahren ohnehin neu kauft.
 
Wer meine Kommentare kennt weiss, dass ich gerne und zurecht gegen NVidia bashe und klarer AMDFan bin.
Das Verhalten das an den Tag gelegt wird darf nicht belohnt werden!
Deshalb, würde ich generell zu garkeinem Kauf raten im Augenblick.

Ich schau mir jedoch viele Artikel und Vlogs an und ich muss leider sagen, die 4070 (non Ti) finde ich garnicht so schlecht für die nächsten 2 Jahre.
Danach ist natürlich wieder (geplant) schicht im Schacht.
Minimum an Speicher geht noch aber Anbindung noch schlechter als die Ti, geschweige denn Recheneinheiten. Das kann man nicht weg reden und wird sich rechen mit steigender Anforderung.

Stand 05.2023, bekommt es meine eingeschrenkte Empfehlung sobald der Preis 50$/€/Fr. sinkt, wenn es NV sein muss.
 
Nicht falsch verstehen, ich denke auch, dass NV diese Runde wieder einmal gewonnen hat, was aber zu allererst an der 4090 liegt, zu Teilen auch an der 4080 (wobei schon Makel vorhanden sind). In allen Klassen dadrunter wird Nvidia aber zunehmend unattraktiver, selbst die 4080 ist schon "knapp" kalkuliert wenn man sich die VRAM Ausstattung anschaut, wenn auch noch ausreichend und für jemandem in dem Bereich vermutlich eh uninteressant, da man in zwei oder drei Jahren ohnehin neu kauft.
16 Gb knapp bemessen? Da frag ich mich manchmal was für Spiele gespielt werden...
Ganz ehrlich was soll ein Käufer anstelle der 4080 kaufen? Eine 7900xtx ist eine zu teure alternative und die 7900xt ist ggü. einer 4070ti auch nur aufgrund des größeren Speicher eine Überlegung wert. Und selbst hier lässt sich streiten ob der Speicher wirklich so kritisch ist.
AMD kaufen bedeutet diese gen teilweise deutliche Kompromisse einzugehen. Und dafür wird der Preis schon agressiv gewählt.
 
16 Gb knapp bemessen? Da frag ich mich manchmal was für Spiele gespielt werden...
Ganz ehrlich was soll ein Käufer anstelle der 4080 kaufen? Eine 7900xtx ist eine zu teure alternative und die 7900xt ist ggü. einer 4070ti auch nur aufgrund des größeren Speicher eine Überlegung wert. Und selbst hier lässt sich streiten ob der Speicher wirklich so kritisch ist.
AMD kaufen bedeutet diese gen teilweise deutliche Kompromisse einzugehen. Und dafür wird der Preis schon agressiv gewählt.
Sorry, aber 16GB für diese Leistungsklasse ist "knapp" bemessen! 12GB sind mittlerweile dürftig und in guten Settings bringen sie dir schon ordentlich SlowDowns bei. 16GB reichen aktuell aus, das ist mir klar, aber ich denke die Leistung der Karte würde auch noch einiges in der Zukunft reichen, da werden dann aber mitunter 16GB schon zum Wackelkandidat. Dennoch sehe ich die 4080/4090 als Gewinner an, weil eben AMD auch Kompromisse bietet.

Die 4070Ti halte ich für großen Nonsens, klar überlegene Effizienz (seltsamerweise kauft keiner der diese Effizienz bewundert einen 3D AMD?), aber der VRAM ist übel wenig und kostet die Karte eigentlich alle Vorteile die sie hat.

AMD kaufen bedeutet aktuell eigentlich kaum Kompromisse, halte ich für Schwachsinn. RT ist immer noch und bleibt auch noch einige Zeit ein nettes Gimmick, mehr nicht, selbst die 4090 geht mit RT dermaßen in die Knie (zumindest wenn man RT Einstellungen spielen will die man auch als optischen Mehrwert bezeichnen kann). DLSS 3 ist für mich nachwievor kein Feature was ich erwähnen will, der DLSS 2 Vorteil ist da (keine Frage), aber eben auch der Abstand in Puncto Rasterleistung und Preis. Alles in allem, halte ich die 7900XTX und die 4080 für absolut auf Augenhöhe, AMD hat Vorteile im Raster und im Preis und im VRAM, Nvidia bei der Effizienz, beim Featureset und eben bei RT. Man muss also bei Beiden irgendwo einen Kompromiss gehen, lediglich die 4090 ist over the Top und konkurenzlos (aber auch teuer).
 
Keine hat ein gutes P/L Verhältnis.
Die 4070 ist, wenn sie 600 € schon "okay". Ist halt schade, dass man keine Verbesserung zur letzten Generation sieht, aber immerhin sind wir auch nicht mehr schlechter als die letzte Generation. Wenn die noch um 50 -150 € runtergeht, wäre halt mega.
 
Sorry, aber 16GB für diese Leistungsklasse ist "knapp" bemessen! 12GB sind mittlerweile dürftig und in guten Settings bringen sie dir schon ordentlich SlowDowns bei. 16GB reichen aktuell aus, das ist mir klar, aber ich denke die Leistung der Karte würde auch noch einiges in der Zukunft reichen, da werden dann aber mitunter 16GB schon zum Wackelkandidat. Dennoch sehe ich die 4080/4090 als Gewinner an, weil eben AMD auch Kompromisse bietet.
Was einfach nur Blödsinn ist. Du plausibilisiert nirgends warum die 16gb heute schon knapp sind. Preis alleine spielt keine echte Rolle. Wenn 16gb knapp sind hau doch die AAA Spiele raus die reihenweise an den 16gb kratzen.
Die 4070Ti halte ich für großen Nonsens, klar überlegene Effizienz (seltsamerweise kauft keiner der diese Effizienz bewundert einen 3D AMD?), aber der VRAM ist übel wenig und kostet die Karte eigentlich alle Vorteile die sie hat.
Wenn es nur die Effizienz wäre...
AMD kaufen bedeutet aktuell eigentlich kaum Kompromisse, halte ich für Schwachsinn. RT ist immer noch und bleibt auch noch einige Zeit ein nettes Gimmick, mehr nicht, selbst die 4090 geht mit RT dermaßen in die Knie (zumindest wenn man RT Einstellungen spielen will die man auch als optischen Mehrwert bezeichnen kann). DLSS 3 ist für mich nachwievor kein Feature was ich erwähnen will, der DLSS 2 Vorteil ist da (keine Frage), aber eben auch der Abstand in Puncto Rasterleistung und Preis. Alles in allem, halte ich die 7900XTX und die 4080 für absolut auf Augenhöhe, AMD hat Vorteile im Raster und im Preis und im VRAM, Nvidia bei der Effizienz, beim Featureset und eben bei RT. Man muss also bei Beiden irgendwo einen Kompromiss gehen, lediglich die 4090 ist over the Top und konkurenzlos (aber auch teuer).
Ja genau RT ist ein Gimmick aber wenn der VRAM für ein kleinen Teil der Spiele mal nicht auf Ultra läuft und man, schreck lass nach, auf Hoch stellen muss, der keinen echten visuellen Mehrwehrt bietet, dann geht das gar nicht... :klatsch:
Wenn dir Dinge wie das überlegene Upsampling, besseres RT, höhere Effizienz, breiteres Regelfenster, runder laufender Mulitmonitor Support, FG und je nachdem wen man fragt weniger gezicke im Treiber, keine Rolle spielen, dann sind sie auf Augenhöhe.
Aber wenn man dem ggü. nur etwas mehr Rasterleistung und mehr VRAM entgegensetzt ist das dürftig.
Ich würde zwar aus Protest zu Nvidias Aktionen eher AMD favorisieren, aber ist für das gebotene zu teuer. Da kaufe ich dann doch lieber Nvidia, wenn ich schon 800€+ ausgebe will ich nicht dutzende Nachteile mitkaufen.
 
Nun 16gb vram reichen auch noch 2026 völlig aus.
Ihr vergisst für wem die spiele designt werden
Der PC markt ist verglichen zu allen Konsolen klein für Spiele Entwickler aber groß genug um dafür zu portieren siehe sony capcom und co.
Daher werden spiele primär fürdie schwächste Konsole entwickelt
Das wäre aktuell ps4 mit 5tf 1080p 30fps
Und zunehmend ps5 10tf 1080p 30fps
ps4 8gb hybrid ram
ps5 16gb hybrid ram 3,5gb fürs OS rest games wass etwa 12,5gb für spiele übrig ist

Aktuell iste s so das man primär upscaled 2160p die 12,5gb vram ausreiche müssen
daher reicht auch das meiste am PC aus aber paar entwickler machen sich die Mühe dies nochmal zu steigern auf 16gb vram anzupassen.
Die ps5 pro ist kein geheimnis mehr und wird kommen und wird etwa 20gb ram haben vovon 16 für games frei stehen mit etwa 20tf renderleistung

Das wird dann die offizielle maxed anforderung werden bei PC und Konsolen spielen ab 1080p
Das Min wird dann die ps5 mit 12gb vram und 10tf renderleistung für 1080p 30fps sein.
Das ist der moment wo ich die gpu wechsle
Da die rtx4060ti knapp 17tf erreicht und 16gb vram bekommt hoffentlich 20gbps dann wäre das der perfekte ersatz.
Aktuell ist eher die rtx4070 12gb ideal könnte aber durchaus mehr vram vertragen
Da aber vermutlich 2160p mit 30fps und 16gb vram angepeilt werden sollte bei 1080p maximal 12gb reichen daher wäre ideal den ad104 mit 2,4ghz und 12gb gddr6 22gbps als rtx5060 zu bringen
maxed 170w tbp und unter 450€ wäre diese sku der perfekte ersatz für die rtx3060 12gb
Die rtx4060ti 16gb mit 160w tbp aber nur maxed 16,7tf und nur 288gb/s würde nur maxed 44% schneller sein .
Quasi auf level der rtx3070
Am besten wäre 24gbps ram zu verbauen ab 8$ pro 16gbit davon 22gbps
Was dann die sku auf 384gb/s ideal machen würde. +76% vs rtx3060
Aber das wird nvidia nicht tun.

Vorstellen könnte ich mir das nvidia den ad104 mit nur 40sm und 12gb als rtx4060 ti super bringt und das Gerücht für ein 16gb Modell einfach quatsch sind.
Oder es sich um ein OEm special geht

Ein gutes line up wäre wenn nvidia das machen würde.

rtx4050 super ad107 24sm 11,8tf 200$ 288gb/s 8gb
rtx4060 super ad 06 36sm 17,7tf 288gb/s 300$ 12gb
rtx4060ti super ad104 40sm 20tf 480gb/s 400$ 20gbps 12gb
rtx4070 super ad104 56sm 28tf 480gb/s 12gb 500$ 12gb
rtx4070ti super ad103 70sm 34tf 700$ 12gb
rtx4080 super ad103 84sm 41tf 999$ 16gb
rtx4090 super ad102 142sm 70tf 1600$ 24gb

Clampchell muss man sowieso bei allen sku machen oder was sinnvoller wäre wenn man der rtx4060ti super den ad104 platine gibt mit 6 ram plätzen
Das si auf 96bit kastriert und 24gbps dazugibt 288gb/s wie das 8gb modell aber mehr vram
Die andere idee wäre das pcb auf clampchell zu realisieren was teuer wird
Normal kostet so eine ad106 Platine etwa 10$ mit mehr layern und bessere vrm für den vram ist man schnell bei 25$
Zuzüglich doppelseitige Kühlösung das bedingt fette kühler mit backplate also ab 75$
Da fragt man sich schon ob solche sku Sinn machen als dann man auf ad104 Platine mit 6 ramplätzen doch Sinnvoller wäre und das Si auf nur 96bit zu kastrieren.

Ein komplett neues pcb mit 8 ramplätzen wäre die andere idee da könnte es schon realistisch sein das man mit

rtx5050 12gb ad107 24sm (ad106 Platine 10$)
rtx5060 16gb ad106 36sm neue Platine 15$
rtx5060ti 20gb ad104 46sm (neue Platine mit 12 ramplätzen wie bei ga102 ab 30$ +75$ kühler)
rtx5070 24gb ad104 60sm
rtx5080 32gb ad103 84sm (clampchell platine ab 25$+ 100$ kühler)
rtx5090 48gb ad102 142sm /clampchell mit 150$ Kühler)
kommt ab q1 2024

ich zweifle das nvidia im high end mehr als 24gb vram freigibt da das die quadro reihe gefährdet
Wenn müsste nvidia die studio Treiber für consumer streichen.
Woran ich nicht glaube was mich zum Schluss führt dass die erste Annahme stimmen wird mit 8gb Anfang und ende 24gb vram bleibt mit unsinnigen ram Geschwindigkeiten wie 288gb/s

Die alternative ist das gddr7 bereit ist und das ada das kann.
Dann wird es spannend
vorstellbar 28gbps bis 36gbps
Was wieder die sku reihe von oben mit
rtx 5050 8gb 20gbps 320gb/s (gddr6) 200$
rtx5060 12gb 28gbps 336gb/s (gddr7) 350$
rtx5070 12gb 36gbps 648gb/s 600$
rtx5080 16gb 36gbps 864gb/s 999$
rtx5080ti 24gb 36gbps 864gb/s 1500$
rtx5090 24gb 36gbps 1728gb/s 2000$

Was zutreffen wird ist offen aber Spiele brauchen definitiv bis 2026 nicht mehr als 16gb vram bei 4k
Aktuell ist man mit 12gb bei 1080p sicher
Die Auflösung steigert sich maximal um je 1gb also 1080p 12gb 1440p 13gb 2160p 14gb
Daher weiß ich das, den die Auflösung ist nur da was ausgegeben wird wie die engine intern rendert ist entscheidend
Die meisten spiele rendern in 720p bis 1440p
Und zunehmend variable durch vrs
Mit der ue5 und nanite verstärkt sich das und wird je nach detailgrad auf die Auflösung addiert
Reicht die Renderleistung nicht wird eben kleiner gerendert und bei zu wenig vram eben die Ausgabe nur nativ aber der inhalt kleiner gerendert.

Am ende kommt man um ssd als install medium nicht rum und einer pcie ssd im m2 slot
Die UE5 profitiert davon enorm
Das OS muss auf ner SSd sein am besten m2
Dann sind ruckler wenn ausgelagert wird auf ram kaum noch bemerkbar.
 
Ein gutes line up wäre wenn nvidia das machen würde.

rtx4050 super ad107 24sm 11,8tf 200$ 288gb/s 8gb
rtx4060 super ad 06 36sm 17,7tf 288gb/s 300$ 12gb
rtx4060ti super ad104 40sm 20tf 480gb/s 400$ 20gbps 12gb
rtx4070 super ad104 56sm 28tf 480gb/s 12gb 500$ 12gb
rtx4070ti super ad103 70sm 34tf 700$ 12gb
rtx4080 super ad103 84sm 41tf 999$ 16gb
rtx4090 super ad102 142sm 70tf 1600$ 24gb
die Preise passen aber null zu Nvidia. aber gut wäre das auch nicht. gut wäre es wenn Nvidia den Speicher aller Super Modelle einfach verdoppelt. und die UVP nicht anhebt. wird aber nicht kommen.
abgesehen davon geht AD106 mit 12GB nicht geht nur 4/8/16GB an 128Bit
 
Ich hätte auch gerne einen Porsche Cayenne, aber finde die aktuellen Preise viel zu teuer für das, was er auf die Straße bringt. Was soll diese Diskussion? Nvidia ist eine Firma mit Gewinnerzielungsabsicht. Ziel ist es, möglichst viel Geld zu verdienen, nicht möglichst vielen Gamern für möglichst wenig Geld die Karte ihrer Träume zukommen zu lassen. Jede Firma wird sich anschauen, wie ihr Marktsegment ist und die Preiselastizität dort aussieht und entsprechend Preise festlegen. Könnte auch sein, dass Nvidia feststellen, dass die Zielgruppe für die GPUs auch den doppelten Preis noch zahlen, der Absatz dann aber weniger als die Hälfte zurück geht. Dann wäre das immer noch eine stinknormale Geschäftsentscheidung, egal wie groß das Geheule würde.
 
Keine hat ein gutes P/L Verhältnis.

Wenn man hohen Wert auf RT-Performance legt und in WQHD unterwegs ist, ist die 4070 der beste Deal zur Zeit. Die Karte packt selbst Cyberpunk mit Pathtracing und max Details, wenn DLSS 2 "Quality" und DLSS 3 aktiviert sind mit spielbarer Framerate.

Habe mir die Karte auch gekauft und es nicht bereut. Nach sehr langer Wartezeit aufgrund der katastrophalen Marktlage war die 4070 für mich genau das richtige Produkt. Hatte zuvor eine 2060S verbaut und durch den Wechsel gab es:

- mehr als die 3-fache Leistung in TFlops
- mehr als die doppelte Leistung in FPS (ohne DLSS3)
- 50% mehr Speicher
- DLSS3 Support

Und das ganze bei nahezu identischem Stromverbrauch.
 
Du plausibilisiert nirgends warum die 16gb heute schon knapp sind. Preis alleine spielt keine echte Rolle.
Ich behaupte auch nirgends, dass es heute schon zu wenig ist. Wer lesen kann, ist klar im Vorteil.

Ja genau RT ist ein Gimmick
Wie viele Spiele unterstützen derzeit RT? 0,1%?

Wie viele davon nutzen RT sinnvoll? 0,1%?

Ja, RT ist aktuell ein Gimmick. Cyberpunkt bietet mit dem neuesten Patch einen echten Mehrwert durch RT, selbst Psycho war gut. Drunter? Empfand ich es als optisch nicht sinnvoll, zuviel Leistungsverbrauch und optischen Mehrwert hab ich nur in Standbildern bemerkt. Allerdings kenne ich nun zwei Spiele die von RT optisch profitieren, nur hier muss man selbst mit einer 4090 Kompromisse eingehen, UHD geht jedenfalls nicht, selbst mit DLSS muss man schon nur Quality einstellen (was zweifelsohne noch geht, aber drunter sind die optischen Abstriche schon deutlich zu hoch) um halbwegs akzeptable Bildraten zu erhalten.

VRAM für ein kleinen Teil der Spiele
Dieser Teil ist aber viel größer (bezogen auf meine Aussage über 12GB VRAM) als bei RT

Wenn dir Dinge wie das überlegene Upsampling, besseres RT, höhere Effizienz, breiteres Regelfenster, runder laufender Mulitmonitor Support, FG und je nachdem wen man fragt weniger gezicke im Treiber, keine Rolle spielen, dann sind sie auf Augenhöhe.
So langsam Brauner:

1.) überlegenes Upsampling, ja aber der Unterschied ist schon gering und wird eher noch geringer
2.) besseres RT ist super, bringt nur ,IT den kleinen Karten nix, da selbst die großen schon am Kotzen sind
3.) Ja, die Effizienz wurde bereits erwähnt, seltsam nur, dass diese in der letzten Gen und bei CPUs von euch niemanden interessiert
4.) breiteres Regelfenster?
5.) Multimonitor läuft bei mir super rund, wüsste nichts außer die Effizienz was bei AMD dagegen spricht und selbst da gibt es Abhilfen
6.) Treiber? Gut, damit enttarnst du dich dann auch endgültig. Nahezu jede Woche muss Nvidia aktuell Treiber Hotfixes bringen, weil in jedem Treiber irgendeine Scheiße verbaut ist. AMD dagegen läuft und läuft und läuft, manchmal mit geringerer Performance dafür bei mir seit 2 Jahren absolut stabil!

Entscheidend ist ja, dass du ganz wesentliche Gründe für AMD ignorierst, womit du auch deine ganze Passion zeigst, die in 100% der Spielen interessante Rasterleistung erwähnst du nicht? Der in 100% der Fälle günstigere Preis wird ebenso von dir nicht erwähnt! Dazu die eben überlegene Ausstattung im VRAM, welche grundsätzlich in jedem Spiel interessant werden kann.

Aber nochmal für grün angezogene, eine 4080/4090 sind für mich klar Gewinner, wobei ich die XTX bei 95% der 4080 sehe. Die 4070/Ti dagegen ist in meinen Augen völlig uninteressant, sie ist effizienter hat mehr RT Leistung (welche in der Klasse für mich aber keine Sekunde ein Kaufargument ist), dagegen steht AMD mit dem besseren Preis, überlegener Rasterleistung und erheblichem VRAM Überschuss!
Wenn man hohen Wert auf RT-Performance legt und in WQHD unterwegs ist, ist die 4070 der beste Deal zur Zeit. Die Karte packt selbst Cyberpunk mit Pathtracing und max Details, wenn DLSS 2 "Quality" und DLSS 3 aktiviert sind mit spielbarer Framerate.
Und gezuckel und Artefakte in Masse
 
Stimmt nicht. Habs selbst getestet...
Kann ich mir kaum vorstellen, selbst mit Ultra RT (also nicht der wirklich geilen Einstellung) braucht es FSR UQ um dann nicht einmal 60FPS zu generieren, mit 53 P1 bist du gefährlich nah am "unspielbar".

Lt. CB kommt eine 4070 mit FG und DLSS Quality um die 60fps, das bedeutet die Latenz dürfte sich im Bereich unter 40fps bewegen, dazu kommen massig Artefakte (wie auch Thorsten hier in seinem Test zu FG gezeigt hat, je weniger echte FPS je schlimmer), alles in allem für mich nicht wirklich spielbar!

Nicht falsch verstehen, wenn du glücklich bist hast du alles richtig gemacht, ich (ICH) wäre es mit solchen Latenzen am Ende nicht (vor allem da diese ja mit FG und Reflex vielleicht sogar noch schlechter sind als ohne FG und Reflex.
 
Kann ich mir kaum vorstellen, selbst mit Ultra RT (also nicht der wirklich geilen Einstellung) braucht es FSR UQ um dann nicht einmal 60FPS zu generieren, mit 53 P1 bist du gefährlich nah am "unspielbar".

Lt. CB kommt eine 4070 mit FG und DLSS Quality um die 60fps, das bedeutet die Latenz dürfte sich im Bereich unter 40fps bewegen, dazu kommen massig Artefakte (wie auch Thorsten hier in seinem Test zu FG gezeigt hat, je weniger echte FPS je schlimmer), alles in allem für mich nicht wirklich spielbar!

Nicht falsch verstehen, wenn du glücklich bist hast du alles richtig gemacht, ich (ICH) wäre es mit solchen Latenzen am Ende nicht (vor allem da diese ja mit FG und Reflex vielleicht sogar noch schlechter sind als ohne FG und Reflex.

Die Latenzen sind gut dank Reflex und um die 60 FPS sind in einem Single Player RPG imho vollkommen in Ordnung, da ist man auf Konsole schlimmer dran.

Wenn man ein 100+ FPS Erlebnis will, muss man auf RT Psycho gehen, das stimmt.

Edit: Gerade nochmal getestet: Es sind die meiste Zeit sogar deutlich über 60 FPS, meistens so 65-75 mit seltenen Drops auf bis zu 55. Vollkommen spielbar, v.A. weil die Latenz dank Reflex wirklich gut ist für so ein Spiel.
 
Zuletzt bearbeitet:
Ich behaupte auch nirgends, dass es heute schon zu wenig ist. Wer lesen kann, ist klar im Vorteil.
Liest du deine eigenen Beiträge. Du sprichst von Knapp und hast keinerlei Belege o.ä. vorgelegt. Wir stellen fest 16gb sind ausreichend Dimensioniert und weit weg von Knapp.
Wie viele Spiele unterstützen derzeit RT? 0,1%?

Wie viele davon nutzen RT sinnvoll? 0,1%?

Ja, RT ist aktuell ein Gimmick. Cyberpunkt bietet mit dem neuesten Patch einen echten Mehrwert durch RT, selbst Psycho war gut. Drunter? Empfand ich es als optisch nicht sinnvoll, zuviel Leistungsverbrauch und optischen Mehrwert hab ich nur in Standbildern bemerkt. Allerdings kenne ich nun zwei Spiele die von RT optisch profitieren, nur hier muss man selbst mit einer 4090 Kompromisse eingehen, UHD geht jedenfalls nicht, selbst mit DLSS muss man schon nur Quality einstellen (was zweifelsohne noch geht, aber drunter sind die optischen Abstriche schon deutlich zu hoch) um halbwegs akzeptable Bildraten zu erhalten.
Kann ich was dafür dass dir Grafikeffekte nicht auffallen? Bereits vor Patch waren schon deutliche Steigerungen zu erkennen. Dass diese aber nicht überall voll durschlagen ist eben aus der Technik begründet gut nachvollziehbar.
Aber wenn wir schon so Argumentieren: Wie viel Spiele brauchen mehr wie 12gb VRAM? 0,1%? Oder wie viele Spiele brauchen so viel Rasterleistung um ausreichend FPS für den Monitor zu zaubern? 0,1%? Wenn wir danach gehen kannst du auch einfach ne alte 1080ti kaufen und die 0,1% wo es weh tut einfach ignorieren.
Dieser Teil ist aber viel größer (bezogen auf meine Aussage über 12GB VRAM) als bei RT
Dann leg mal eine quantitative Analyse vor die deine Aussage belegt.
So langsam Brauner:

1.) überlegenes Upsampling, ja aber der Unterschied ist schon gering und wird eher noch geringer
Was eine reine mutmaßung deineseits ist. In Zukunft kann viel passieren wir wissen es nicht.
2.) besseres RT ist super, bringt nur ,IT den kleinen Karten nix, da selbst die großen schon am Kotzen sind
Auch der Punkt ist schwachsinn, nicht jeder nutzt 4k und unterhalb schafft selbst meine 2080 RT mit upsampling gute Ergebnisse.
3.) Ja, die Effizienz wurde bereits erwähnt, seltsam nur, dass diese in der letzten Gen und bei CPUs von euch niemanden interessiert
Bitte belege, dass mich die Effizienz nicht interessiert hat! Das ist mal ne dreiste Unterstellung! Zeigt aber dass du hier einfach Leute in Lager packst.
4.) breiteres Regelfenster?
PT 90% bei AMD, schlechtere Skalierung der Leistungsaufnahme über reduktion des Taktes usw.
5.) Multimonitor läuft bei mir super rund, wüsste nichts außer die Effizienz was bei AMD dagegen spricht und selbst da gibt es Abhilfen
Also keine 50-100W Idle? Für mich heißt rundlaufen dass ich keine Nachteile ggü. der Konkurrenz habe und selbst hier im Sammler haben diverse mit Multimonitor Setups hohe Leistungsaufnahmen berichtet. Nein Rund laufen tun die sicher nicht!
6.) Treiber? Gut, damit enttarnst du dich dann auch endgültig. Nahezu jede Woche muss Nvidia aktuell Treiber Hotfixes bringen, weil in jedem Treiber irgendeine ********************* verbaut ist. AMD dagegen läuft und läuft und läuft, manchmal mit geringerer Performance dafür bei mir seit 2 Jahren absolut stabil!
Gut das du meinen Satz: "wen man fragt" gelesen hast. Aber schön das du dich als AMD Fanboy outest :fresse:
Ich sehe persönlich Nvidias Treiber als nicht wesentlich besser an. Andere berichten aber immer wieder über instabilitäten bei AMD.
Abgesehen davon hat die Anzahl an Hotfixes keinerlei Aussagekraft über die Stabilität oder Qualität eines Treibers. Bei AMD könnten auch einfach Bugs garnicht behoben werden, während Nvidia diese relativ zeitnah fixed. Zumal Nvidia mit 80% Marktanteil wohl auch wesentlich mehr beschwerden erhalten wird und entsprechend auch mehr solche Fixes angehen dürfte.
Entscheidend ist ja, dass du ganz wesentliche Gründe für AMD ignorierst, womit du auch deine ganze Passion zeigst, die in 100% der Spielen interessante Rasterleistung erwähnst du nicht? Der in 100% der Fälle günstigere Preis wird ebenso von dir nicht erwähnt! Dazu die eben überlegene Ausstattung im VRAM, welche grundsätzlich in jedem Spiel interessant werden kann.
Die Rasterleistung bewegt sich im selben Rahmen, daher gibts da nichts besonderes zu erwähnen. Mehr VRAM ist nur ein Vorteil wenn weniger für das Zocken nicht ausreichend ist. Ansonsten kostet er uns erstmal nur was. Und der Preis wird nicht erwähnt da er entweder kaum spürbar bzw. von den Nachteilen komplett zerfressen wird.
Aber nochmal für grün angezogene, eine 4080/4090 sind für mich klar Gewinner, wobei ich die XTX bei 95% der 4080 sehe. Die 4070/Ti dagegen ist in meinen Augen völlig uninteressant, sie ist effizienter hat mehr RT Leistung (welche in der Klasse für mich aber keine Sekunde ein Kaufargument ist), dagegen steht AMD mit dem besseren Preis, überlegener Rasterleistung und erheblichem VRAM Überschuss!
Darfst du gerne so sehen. Ich sehe aber zu keinem Zeitpunkt wo AMD ggü. einer 4070ti ein besseres Produkt liefert.
Ehrlich gesagt sind beides preislich gesehen scheiß Produkte die 200€ günstiger sein müssen.
 
Zuletzt bearbeitet:
Du sprichst von Knapp
Ja, ich sage knapp bemessen, weil so eine Karte auch gut altern können sollte und dahingehend (ließ meinem ersten Beitrag dazu) halte ich 16GB für knapp bemessen. 12 GB können heute schon eng werden, was meine Aussage auch nochmal belegt, dass es 16 aktuell nicht tun!

Kann ich was dafür dass dir Grafikeffekte nicht auffallen?
Kann ich was dafür, dass du scheinbar immer Standbilder anschaust? RT Ultra oder wie auch immer es heißt bietet mir einen Mehrwert, unterhalb dieser Einstellungen halte ich es für Schmarrn und nichts was man mit anderen weniger rechenintensiven Methoden nicht auch schon vorher konnte.

Dann leg mal eine quantitative Analyse vor die deine Aussage belegt.
Wieso? Du willst RT als wichtiger einstufen, dann tue das Mal. Ich denke jeder ist sich hier bewusst, dass der VRAM Bedarf in den letzten zwei Jahren massiv gestiegen ist und AMD seit jeher mit hohem VRAM dagegenhielt (weil sie es müssen!) und die Karten altern daher oftmals sehr gut, während NV Nutzer oftmals das nachsehen haben. Ist auch bekannt das Thema.

Was eine reine mutmaßung deineseits ist. In Zukunft kann viel passieren wir wissen es nicht.
Das stimmt

Auch der Punkt ist schwachsinn, nicht jeder nutzt 4k und unterhalb schafft selbst meine 2080 RT mit upsampling gute Ergebnisse
What?

Mit DLSS Quality in WQHD liegen die P1 bei deutlich unter 30fps mit einer 2080 Super, na gut aber das sind ja auch wirklich hervorragende Ergebnisse. Wahrscheinlich DLSS Ultra Performance und den hohen optischen Mehrwert von RT genießen?

Ich sehe persönlich Nvidias Treiber als nicht wesentlich besser an.
Warum bringst du es dann als Punkt an?

Abgesehen davon hat die Anzahl an Hotfixes keinerlei Aussagekraft über die Stabilität
Schon, auch wenn natürlich damit kein direkter Vergleich zur Konkurrenz möglich ist. Dennoch höre ich immer wieder das gleiche Gequake und es nervt. AMDs Treiber warenmin der Vergangenheit ein Graus und oftmals hat AMD auch bei Release keine optimalen Treiber am Start, so weit würde ich immer zustimmen. Aber NV hat auch dutzende Baustellen und daher kann ich deine Meinung nur teilen, beide haben Probleme und beide laufen dennoch meist gut.

Die Rasterleistung bewegt sich im selben Rahmen,
Der Abstand im Raster ist nahezu identisch zu jenem im RT? Bei dem einen ist es erdrutschartig (dazu noch vor allem dank eines Ausreißers namens Cyberpunk), aber im Raster liegen sie gleichauf?
Also keine 50-100W Idle?
Bei mir nicht, wie gesagt es gibt Lösungen auch wenn AMD es einem hier leider unnötig schwer macht, aber im Idle liegt meine Karte bei 25W, CRU ,sei Dank.
 
Ja, ich sage knapp bemessen, weil so eine Karte auch gut altern können sollte und dahingehend (ließ meinem ersten Beitrag dazu) halte ich 16GB für knapp bemessen. 12 GB können heute schon eng werden, was meine Aussage auch nochmal belegt, dass es 16 aktuell nicht tun!


Kann ich was dafür, dass du scheinbar immer Standbilder anschaust? RT Ultra oder wie auch immer es heißt bietet mir einen Mehrwert, unterhalb dieser Einstellungen halte ich es für Schmarrn und nichts was man mit anderen weniger rechenintensiven Methoden nicht auch schon vorher konnte.
Ich verstehe immer weniger warum du dich am VRAM aufhängst. Wenn für dich RT nur in Standbildern erkennbar ist (Ist es nicht), dann ist für dich der Unterschied zwischen mittleren Texturen und Ultra auch nur auf Standbildern erkennbar (Auch das ist es nicht). Von (sehr) hoch auf Ultra gar nicht angefangen, da suchst du wirklich auf Standbildern teils mit Lupe. Es gibt bei so einer Argumentation also kein VRAM Problem!
Wieso? Du willst RT als wichtiger einstufen, dann tue das Mal. Ich denke jeder ist sich hier bewusst, dass der VRAM Bedarf in den letzten zwei Jahren massiv gestiegen ist und AMD seit jeher mit hohem VRAM dagegenhielt (weil sie es müssen!) und die Karten altern daher oftmals sehr gut, während NV Nutzer oftmals das nachsehen haben. Ist auch bekannt das Thema.
Weil Leute sich daran aufhängen kein Ultra nutzen zu können. Das diese Einstellung grafisch nur minimalst und nur bei genauen Bildanalysen einen Vorteil bringt ist diesen Menschen egal. Dass die GPU Teils bei nur hohen Settings bereits voll in die Knie geht wird dann auch ignoriert. Hauptsache Texturen sind auf Ultra...
Da rettet das Feigenblatt Speicher auch nichts.
What?

Mit DLSS Quality in WQHD liegen die P1 bei deutlich unter 30fps mit einer 2080 Super, na gut aber das sind ja auch wirklich hervorragende Ergebnisse. Wahrscheinlich DLSS Ultra Performance und den hohen optischen Mehrwert von RT genießen?
Ich weiß du musst nun stark sein, aber ich mache etwas was du anscheinend nicht beherscht: Regler nutzen!
Ich nutze nicht jeden RT effekt und auch nicht auf Ultra. Reicht aber um teils deutliche Unterschiede erkennen zu können wenn der RT Effekt vorhanden ist. Und für die höheren FPS nutze ich dann DLSS Ausgeglichen. Und schon bewegt man sich schnell auf 50+fps. Anspruchsvolle Szenen drücken dass dann zwar auch schnell mal zwischen 30-40fps aber es ist gut spielbar.
Warum bringst du es dann als Punkt an?
Schon, auch wenn natürlich damit kein direkter Vergleich zur Konkurrenz möglich ist. Dennoch höre ich immer wieder das gleiche Gequake und es nervt. AMDs Treiber warenmin der Vergangenheit ein Graus und oftmals hat AMD auch bei Release keine optimalen Treiber am Start, so weit würde ich immer zustimmen. Aber NV hat auch dutzende Baustellen und daher kann ich deine Meinung nur teilen, beide haben Probleme und beide laufen dennoch meist gut.
Weil es hier immer wieder aufschlägt. Das hast du bei Nvidia trotz der größeren Nutzerzahl halt nicht. Und AMD hat in der jüngeren Vergangenheit einige Böcke geschossen weshalb da durchaus ein gewisses Misstrauen gerechtfertigt ist.
Der Abstand im Raster ist nahezu identisch zu jenem im RT? Bei dem einen ist es erdrutschartig (dazu noch vor allem dank eines Ausreißers namens Cyberpunk), aber im Raster liegen sie gleichauf?
Achso der Ausrutscher Metro erwähnt mal lieber nicht...
Aber abgesehen davon war nie die Rede von gleichauf, sondern gleiche Rahmen. Und ja im RT ist das bei der 4070ti der Fall.
Bei mir nicht, wie gesagt es gibt Lösungen auch wenn AMD es einem hier leider unnötig schwer macht, aber im Idle liegt meine Karte bei 25W, CRU ,sei Dank.
Dann hast du eine gute Monitorkombi, die meisten haben 50W+ und das nur im idle das ist ein Unding. Und auch die genügsameren Idle verbräuche kacken dann bei youtube o.ä. dann wieder ab. Hier ist Nvidia einfach das rundere Produkt. War auch der Sargnagel weshalb es bei mir keine 7900xtx wird sondern die 4080
 
Ich verstehe immer weniger warum du dich am VRAM aufhängst. Wenn für dich RT nur in Standbildern erkennbar ist (Ist es nicht), dann ist für dich der Unterschied zwischen mittleren Texturen und Ultra auch nur auf Standbildern erkennbar
Das ist Quatsch und habe ich so auch nicht geschrieben. Es ist so, dass Ultra tatsächlich oftmals keinen wirklichen sichtbaren Unterschied macht, kommt da auch aufs Spiel an. Bei RT sehe ich gerade in mittleren Einstellungen oftmals keinen Mehrwert, mag sein, dass Beluchtung und Schatten realistischer sind, aber das Spiel verschönern sie oftmals (kommt auch hier natürlich aufs Spiel und die Szene an) nicht. Bei CB bspw. empfinde ich RT erst ab der alten Höchsteinstellung wirklich gewinnbringend, der neue Modus ist in meinen Augen gar ein Gamechanger!

Aber zurück zum VRAM, ich sage lediglich, dass 12GB heute schon am Limit sind, was ja nun auch durch diverse Tests belegt sind. Ich sage ebenso, dass ich eine 4080, die ja (vom Typ her) in der Vergangenheit locker 2 bis 3 Generationen überleben konnte mit 16GB knapp werden kann (nicht muss). Dazu sage ich ja, dass die meisten 4080 Nutzer dieses Problem nicht haben, da sie vermutlich in spätestens der übernächsten Gen aufrüsten. Daher ist dir 4080 auch für mich das etwas rundere Produkt.

Es geht hier aber vornehmlich um die 4070 (Ti) und diese würde ich nicht nehmen, 12GB sind einfach zu wenig. Spätestens in der nächsten Gen ist schon viel Optimierung am Regler notwendig.

Weil es hier immer wieder aufschlägt. Das hast du bei Nvidia trotz der größeren Nutzerzahl halt nicht.
Das ist aber eher ein psychologisches Problem. Ist ja bspw. das gleiche bei Apple Produkten, die können sich biegen, nach zwei Jahren praktisch unbrauchbar werden und Sicherheitslückem haben wie sie wollen, die Nutzer glauben und verbreiten trotzdem das beste Produkt zu haben.

Aber abgesehen davon war nie die Rede von gleichauf, sondern gleiche Rahmen. Und ja im RT ist das bei der 4070ti der Fall.
???
Habe ich dich falsch verstanden? Siehst du leistungstechnisch beide Aspekte im Rahmen (Raster und RT?)? Dann passt es ja wieder

Dann hast du eine gute Monitorkombi, die meisten haben 50W+ und das nur im idle das ist ein Unding. Und auch die genügsameren Idle verbräuche kacken dann bei youtube o.ä. dann wieder ab. Hier ist Nvidia einfach das rundere Produkt.
Grds. Kann man einiges optimieren, bei RDNA2 war es ja im Wesentlichen der Takt des RAMs, mit niedriger Refreshrate im Desktopbetrieb war das aber alles kein Problem. Bei der neuen Gen ist es wohl ein größeres Problem, dennoch geht auch einiges an Optimierung, aber zweifelsfrei ist NV in der aktuellen Gen das rundere Produkt in Desktop.

P.S.
Als Aspekt sollte man mal betrachten wieviel man im Desktop Betrieb ist, ich hab mal eine Zeit mitgeloggt und bin bei erstaunlichen 95% Lastszenarien gelandet (wobei fairerweise da sicherlich auch noch Desktop Lastszenarien bei waren, die für diesen Vergleich ebenfalls interessant wären.

Home Office läuft bei mir über ThinClient den ich auch zum Surfen usw nutze, der hat im Gesamten weniger Verbrauch als die meisten Netzteile im Idle ziehen 8 bis 15W.

War auch der Sargnagel weshalb es bei mir keine 7900xtx wird sondern die 4080
Wie gesagt, diese Konsequenz würde ich ja auch ziehen, die 4080 ist das etwas rundere Produkt.
 
Das ist Quatsch und habe ich so auch nicht geschrieben. Es ist so, dass Ultra tatsächlich oftmals keinen wirklichen sichtbaren Unterschied macht, kommt da auch aufs Spiel an. Bei RT sehe ich gerade in mittleren Einstellungen oftmals keinen Mehrwert, mag sein, dass Beluchtung und Schatten realistischer sind, aber das Spiel verschönern sie oftmals (kommt auch hier natürlich aufs Spiel und die Szene an) nicht. Bei CB bspw. empfinde ich RT erst ab der alten Höchsteinstellung wirklich gewinnbringend, der neue Modus ist in meinen Augen gar ein Gamechanger!
Klar hängt das vom RT Effekt ab und wo man sich befindet. Bei den niedrigen Einstellung stimme ich dir zu so bald man aber richtung Hoch geht ist das schon i.O.
Aber zurück zum VRAM, ich sage lediglich, dass 12GB heute schon am Limit sind, was ja nun auch durch diverse Tests belegt sind. Ich sage ebenso, dass ich eine 4080, die ja (vom Typ her) in der Vergangenheit locker 2 bis 3 Generationen überleben konnte mit 16GB knapp werden kann (nicht muss). Dazu sage ich ja, dass die meisten 4080 Nutzer dieses Problem nicht haben, da sie vermutlich in spätestens der übernächsten Gen aufrüsten. Daher ist dir 4080 auch für mich das etwas rundere Produkt.

Es geht hier aber vornehmlich um die 4070 (Ti) und diese würde ich nicht nehmen, 12GB sind einfach zu wenig. Spätestens in der nächsten Gen ist schon viel Optimierung am Regler notwendig.
Jetzt mal ganz ehrlich. Glaubst du dass du bei einer 4070ti in 4k bis zur nächsten Gen keine Optimierung vornehmen musst wenn die Karte mehr VRAM hat? Die Karte dürfte auch bevor die neue Gen kommt bereits Optimierungen benötigen unabhängig der VRAM größe. Und in niedrigeren Auflösung bezweifel ich das wir zeitnah massive Probleme haben werden.
Grds. Kann man einiges optimieren, bei RDNA2 war es ja im Wesentlichen der Takt des RAMs, mit niedriger Refreshrate im Desktopbetrieb war das aber alles kein Problem. Bei der neuen Gen ist es wohl ein größeres Problem, dennoch geht auch einiges an Optimierung, aber zweifelsfrei ist NV in der aktuellen Gen das rundere Produkt in Desktop.
Die Problematik dahinter ist halt das man das vorher nicht abschätzen kanns. Das kann man erst abschätzen wenn man die Karte hat oder jemand mit der gleiche Kombi es gemacht hat. Und letzteres ist nahezu ausgeschlossen.
P.S.
Als Aspekt sollte man mal betrachten wieviel man im Desktop Betrieb ist, ich hab mal eine Zeit mitgeloggt und bin bei erstaunlichen 95% Lastszenarien gelandet (wobei fairerweise da sicherlich auch noch Desktop Lastszenarien bei waren, die für diesen Vergleich ebenfalls interessant wären.

Home Office läuft bei mir über ThinClient den ich auch zum Surfen usw nutze, der hat im Gesamten weniger Verbrauch als die meisten Netzteile im Idle ziehen 8 bis 15W.


Wie gesagt, diese Konsequenz würde ich ja auch ziehen, die 4080 ist das etwas rundere Produkt.
Und genau das ist der Grund warum es die 4080 wird.
 
aber richtung Hoch geht ist das schon i.O.
Was schafft denn eine 4070 aktuell in RT Titeln mit Details Hoch und RT hoch? Nativ (WQHD) wird das nahe der Unspielbarkeit hängen, mit DLSS Quality (drunter würde ich nicht gehen) wird es schon eng, mit FG sehen die FPS dann nett aus, bleibt aber trotz Reflex latenzschwach. Daher ist für mich (so wie es in der Vorgängergen war) RT in dem Bereich keinen wirklichen Blick wert.

Glaubst du dass du bei einer 4070ti in 4k
Ist ganz sicher eine WQHD Karte und nicht für 4K gedacht, aber bspw. das nicht mehr ganz taufrische Dying Light verbraucht inkl. RT schon mehr als 11GB Vram und nahezu alle optisch ansprechenden Titel knacken die 10GB easy in WQHD. Daher meine Aussage, "heute schon knapp" was ja nunmal nicht bedeuten soll, dass es schon jetzt zu wenig ist.

zeitnah massive Probleme haben werden
Zwei Fragen die man sich selbst hier stellen muss, was sind massive Probleme? Was ist zeitnah? Ich denke nämlich, wenn man keine Probleme damit hat ggfls. DLSS zu nutzen und auf Effekte verzichten kann dann wird man keine Probleme bekommen. Die andere Frage ist ohnehin, was bedeutet zeitnah? Bei den heutigen völlig überzogenen Preisen ist es in meinen Augen ,ehr als denkbar, dass auch ein 4070 Käufer gerne 4-6 Jahre die Karte nutzen wollen wird und in dieser Zeitspanne wird man vermutlich schon Probleme bekommen, wie massiv ist dann eine ziemlich subjektive Frage. Dennoch gebe ich hier der XT das längere Leben, mehr Raster und mehr VRAM werden der Karte mehr Verweildauer verschaffen
Und genau das ist der Grund warum es die 4080 wird.
Wie gesagt, diese Entscheidung kann ich sehr gut nachvollziehen
 
Zurück