Special 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti

Imanderen Thread hab ich ja schon die Steam Survey Zahlen zur Verbreitung von RT fähigen Karten - und besonders solcher, die DLSS FG beherrschen - genannt.
Ja, die sind bei der Diskussion irrelevant!
Hier im Forum ist RT ein Thema.. .bei den Gamern findet es schlicht kaum statt.
Aber bei mir und das reicht und da kann kein anderer User sagen, aber für Gamer spielt das keine Rolle.

Es gibt kein Pauschal für alle richtig.
Sofern es nicht wieder irgendwelche versteckten super duper, über Settings nachträglich gab, ja.
 
Für sich genommen einfach keine schlaue Aussage!

Weil, wenn die 12GB grundsätzlich zu schlecht fürs Geld gewesen wären, dürfte es den Fakt nicht geben, das für diejenigen die RT vorzugsweise immer nutzen wollen, es keine besser funktionierende Karte am Markt, für das Geld gab.

Mit einer 7900XT hätte man öfter den Detailverzicht bei RT hinnehmen müssen, als bei der 4070ti, wegen dem VRam.

Für alle die, die lieber RT reduzieren, oder ausschalten ist die 7900XT hingegen sicher die bessere Wahl gewesen!

Du schreibst zwar sachlich, kannst dir aber dennoch "pro Nvidia-" und "contra AMD-" Aussagen. teils unterschwellig, nicht verkneifen.

Auch ich finde, dass es von Anfang an für das geforderte Geld von Nvidia zu wenig war, noch Karten in der Preis- Leistungsklasse mit weniger als 16 GB zu bringen. Klar kann man sich das schönreden, aber wenn 12 GB in absehbarer Zeit nicht mehr reichen, dann reichen sie nicht.

Wenn die Karten mit weniger als 16 GB VRAM von Anfang an günstiger gewesen wären, hätte ich das ja ok gefunden. Aber AMD hatte schon mit RDNA 2 gute Karten mit 16 GB zu einem fairen Preis. Nvidia hat zwar die bessere RT-Performance, aber da hätten sie zumindest ihre Produkte unterhalb der 4080 preislich besser gestalten können. Die Preisdiskussion gabs hier ja auch schon zur Genüge.

Mit der 7900 XT "RT ausschalten" halte ich schon etwas weit hergeholt. Immerhin spiele ich mit meiner RDNA 2 RX 6800 auch mit RT ohne große Probleme. Wenn das die RX 6800 noch in Full HD schafft, spielbare Framerates zu erreichen, wird es auch die 7900 XT in WQHD schaffen.
 
Zuletzt bearbeitet:
Es tut mir leid, wenn du das Gefühl hast, das falsche Produkt erworben zu haben...
Und genau diese Einstellung ist dein Problem und das der anderen, die meistens etwas gegen Nvidia haben und diesen Speichertest als den heiligen Gral dafür sehen endlich das ultra Argument gegen den RT Vorteil verwenden zu können, obwohl das wenig miteinander zu tun hat.

Ein Produkt hat Vorteile und Nachteile. Auf einer 4070 Super in 4K nicht alles maximieren zu können, weil in wenigen Beispielen der Speicher limitiert, trifft zu. Das tut es aber in den anderen Auflösungen nicht einmal ansatzweise. Und die Konkurrenz kann das mit RT schon gleich gar nicht. Abgesehen davon spielt nicht jeder in 4K.

In WQHD sieht das so aus und da sind wir weit entfernt von Speicherproblemen. Gut, die Radeons mit 12GB vielleicht nicht. Bei der Faktenlage die ja mehr darstellt als gepickte Ergebnisse unter Maximalsettings in 4K, die kaum spielbar sind.

Screenshot 2024-01-31 113539.png

Einem einreden das falsche Produkt erworben zu haben, aufgrund wenigen edge cases, die zudem easy behebbar sind, prallt an mir ab. Wer so argumentiert darf schon seit Jahren keine AMD Karte mit der Kneifzange anfassen.
Und ich habe sehr genau überlegt ob ich nicht die 7900 GRE kaufe.

Ätschibätsch Fehlkauf zu rufen zieht bei mir nicht. Auch nicht dann wenn es eine 7900 GRE geworden wäre.

Du hast privat jede Menge Geld für eine 4090 ausgegeben und auch andere haben viel Geld für Karten mit großem Speicherpolster ausgegeben und wechseln die Karten aber wie ihre Unterhosen. Also ist das Gerede von den ach so großen Speichervorteilen Übertreibung. Die 4070 Ti 12G wird jetzt 1 Jahr alt und es gibt bis heute keinen Fall bei dem man damit so eingeschränkt ist, dass man die Karte verkaufen müsste, es sei denn man lauscht dem Flurfunk im Forum oder deiner zugespitzten V-ram Panik.
doch das ändert nichts an den tagesaktuellen Daten, die du in dieser Form nur bei uns bekommst.
Ich bekomme die Daten auch anderswo. Und damit heute der, der sich 2022 eine 4080 statt einer 12GB 4070Ti gekauft hat, so wahnsinnig profitiert, muss er sich gewaltig anstrengen. Die richtigen Spiele spielen und dann alles in 4K aufdrehen was es gibt. Das ändert sehr viel. Und das ist dann auch kein Fehlkauf, weil die andere Karte viel! teurer war.
Es ist definitiv doof gelaufen, dass kurz nach dem Release der RTX 4070 Ti, die wir als gut, wenngleich teuer bewertet haben, diverse VRAM-Fresser erschienen.
Die wird es immer geben. Die gab es auch damals schon als im Grunde nur 8GB Karten verfügbar waren.
Neue Konsolen liegen in weiter Ferne.
Wir informieren ganz bewusst über Grenzfälle, die stets Wegweiser sind. Was heute eng ist, reißt morgen. Mit der Information geht jeder anders um.
Ihr informiert ganz bewusst nur über diese Grenzfälle in diesem Artikel. Keinerlei Anleitung oder Hinweis welcher Regler das geradebiegt und wie relevant das überhaupt ist, wenn man nicht an einem 4K Monitor sitzt.
Wehe einer verteidigt nochmals eine 600€+ oder 900€+ teure 12GB Karte :P
Das kommt auf den Einsatzbereich an, wie viel ein Produkt kostet und was es sonst gegenüber einem anderen Produkt kann. Aber man will unbedingt einen Aufreger haben.
 
Zuletzt bearbeitet:
Weil hier immer und immer wieder der VRAM-Geiz von Nvidia mit dem schlechten RT von AMD verglichen wird.
Es ist ein riesiger Unterschied, dass:

AMD bei RT einfach nicht besser kann. AMD würde sehr gerne besser in RT sein, können es aber einfach nicht. Sie liegen eine Generation hinten dran. Das jemand etwas einfach nicht KANN, kann man ihm schlecht vorwerfen. Klar es ist ein Nachteil, aber das macht AMD sicher nicht mit Absicht. Sie sind sicher nicht ABSICHTLICH so schlecht in RT.

Nvidia allerdings geizt ABSICHTLICH mit dem Vram. Sie könnten sehr wohl MEHR VRAM verbauen. Dagegen spricht überhaupt nichts. Sie machen es einzig und allein nicht, weil sie es nicht WOLLEN. Sie wollen es nicht, um die Spieler zu einem frühen Neukauf zu ZWINGEN.

Also der eine KANN etwas nicht (AMD und RT) und der andere WILL es nicht (Nvidia und Vram).

Genau DAS ist der Unterschied, wieso AMD als sympathischer als Nvidia gilt und die User Nvdia den VRAM Geiz viel schlimmer ankreiden, als AMD die schlechte RT Performance.

Ich hoffe dass es nun jeder verstanden hat, eindeutiger kann ich es wirklich nicht mehr schreiben.
 
Du schreibst zwar sachlich, kannst dir aber dennoch "pro Nvidia-" und "contra AMD-" Aussagen. teils unterschwellig, nicht verkneifen.
Dann zeige mir welche Aussage in diesem Post nicht sachlich war, bitte.
Auch ich finde, dass es von Anfang an für das geforderte Geld von Nvidia zu wenig war, noch Karten in der Preis- Leistungsklasse mit weniger als 16 GB zu bringen. Klar kann man sich das schönreden, aber wenn 12 GB in absehbarer Zeit nicht mehr reichen, dann reichen sie nicht.
Hat ja nichts mit schön reden zu tun, wenn es für den eigenen Usecase keine bessere gibt.
Wenn die Karten mit weniger als 16 GB VRAM von Anfang an günstiger gewesen wären, hätte ich das ja ok gefunden. Aber AMD hatte schon mit RDNA 2 gute Karten mit 16 GB zu einem fairen Preis. Nvidia hat zwar die bessere RT-Performance, aber da hätten sie zumindest ihre Produkte unterhalb der 4080 preislich besser gestalten können. Die Preisdiskussion gabs hier ja auch schon zur Genüge.

Mit der 7900 XT "RT ausschalten" halte ich schon etwas weit hergeholt.
Alan Wake 2, Cyberpunk, außerdem glaube ich das ich geschrieben habe, reduzieren, bzw. ausschalten. Was in manchen Szene bei Aw2 das selbe ist (gefühlt).
Immerhin spiele ich mit meiner RDNA 2 RX 6800 auch mit RT ohne große Probleme. Wenn das die RX 6800 noch in Full HD schafft, wird es auch die 7900 XT in WQHD schaffen.

In manchen Titeln vielleicht, aber sicher nicht bei RT Schwergewichten...

Ich erwähnte eine Prio und wenn diese auf RT liegt, ist eine 4070ti immer noch die bessere Wahl, als eine 7900XT.

Siehe RT Parcours und einzelne Tests zu AW2 mit PT, Cyberpunk mit PT, oder noch ein zwei andere.


DAS SAGT EINDEUTIG DAS DIE 4070TI NATÜRLICH AUCH NICHT IMMER DIE BESSERE IST; SONDERN NUR BEI DIESER PRIO!

Wenn die Prio anders ist, zum Beispiel auf hohe Rasterleistung ist die 7900XT klar die bessere. (Was Leistung angeht)

Dann kommen auch noch Gesamtpakete... Bildqualität mit DLSS/FSR, VR Leistung, Support, Verbrauch bei verschiedenen Situationen, oder was der Geier.


Ein jeder hat unterschiedliche Prioritäten und damit ergibt sich für jeden ein anderes Ergebnis mitunter.
Weil hier immer und immer wieder der VRAM-Geiz von Nvidia mit dem schlechten RT von AMD verglichen wird.
Es ist ein riesiger Unterschied, dass:

AMD bei RT einfach nicht besser kann. AMD würde sehr gerne besser in RT sein, können es aber einfach nicht.
Hätte die gekonnt, wenn da mehr Entwicklung hätte rein fließen lassen.
Sie liegen eine Generation hinten dran.
RT Schwergewichte wie AW2, oder CP zeigen deutlich das es mehr ist. In beiden Fällen ist Nvidia 2,5 bis 3x so schnell. Dabei noch die bessere Bildqualität, dank RR.
Das jemand etwas einfach nicht KANN, kann man ihm schlecht vorwerfen.
Doch in dem Fall.
Klar es ist ein Nachteil, aber das macht AMD sicher nicht mit Absicht. Sie sind sicher nicht ABSICHTLICH so schlecht in RT.

Nvidia allerdings geizt ABSICHTLICH mit dem Vram. Sie könnten sehr wohl MEHR VRAM verbauen. Dagegen spricht überhaupt nichts. Sie machen es einzig und allein nicht, weil sie es nicht WOLLEN. Sie wollen es nicht, um die Spieler zu einem frühen Neukauf zu ZWINGEN.

Naja, oder weil so die Produkte schon gut genug gegen die Konkurrenz dastehen.
Also der eine KANN etwas nicht (AMD und RT) und der andere WILL es nicht (Nvidia und Vram).
Leider nicht objektiv.
Genau DAS ist der Unterschied, wieso AMD als sympathischer als Nvidia gilt und die User Nvdia den VRAM Geiz viel schlimmer ankreiden, als AMD die schlechte RT Performance.

Nein.
Ich hoffe dass es nun jeder verstanden hat, eindeutiger kann ich es wirklich nicht mehr schreiben.
Sorry, muss schmunzeln.

Für uns als Endkunden sollte auch egal sein, was welcher Hersteller warum liefert, es zählt was auf dem Platz dabei raus kommt.
 
Nvidia allerdings geizt ABSICHTLICH mit dem Vram. Sie könnten sehr wohl MEHR VRAM verbauen. Dagegen spricht überhaupt nichts. Sie machen es einzig und allein nicht, weil sie es nicht WOLLEN. Sie wollen es nicht, um die Spieler zu einem frühen Neukauf zu ZWINGEN.
Nein, weil deren Produkte in Konkurrenz mit denen von AMD treten und der Gleichgewichtspreis nicht nur die Speichergröße mit einschließt, sondern auch Features, RT-Leistung, Verbrauch etc. und da ist es nach den Marktgesetzen logisch, dass keine 24GB RTX 4070 Ti existiert. Erstens wäre das für das SI zu teuer, zweitens unwirtschaftlich.
Also der eine KANN etwas nicht (AMD und RT) und der andere WILL es nicht (Nvidia und Vram).
Wenn du beides auf Nvidia willst, musst du eben mehr blechen. Die Welt ist aber kein Wunschkonzert.
Die 4060Ti 16GB hat zum Beispiel beides.
Genau DAS ist der Unterschied, wieso AMD als sympathischer als Nvidia gilt und die User Nvdia den VRAM Geiz viel schlimmer ankreiden, als AMD die schlechte RT Performance.
Ergibt aber keinerlei Sinn, da in in QHD in 100% der Fälle ich gar nichts vom großen Speicher der Radeons habe, bis heute nicht und in 4K nur in ganz wenigen Fällen. Warum sollte AMD da sympathischer sein?
Ich hoffe dass es nun jeder verstanden hat, eindeutiger kann ich es wirklich nicht mehr schreiben.
Ja das Böse gegen das Gute.=)
Tja, und in zwei Jahren sitzen wir hier und wundern uns drüber, dass 16 GB die Spikes verursacht, während die 20 GB und 24 GB Karten... Naja lassen wir das.
Und in 2 Jahren habe ich mit den GPUs schon 2 Jahre ohne Probleme gespielt und muss dann irgendwann mal etwas runterdrehen. Das ist ja schockierend...ich kaufe mir besser eine in RT 40% langsamere 7800XT mit dem schlechteren Upscaling. Oh Wait.
 
Zuletzt bearbeitet:
Schau dir mal die Unterschiede der Texturen, in deinem Techpowerup Test an.

Von Ultra auf high, sehe ich mit Vergrößerung in 99% der Oberflächen keinen Unterschied.
Ich werde mal schauen, ob Techpowerup das öfter macht, derartige Slider... Das wäre ja Perfekt! ;) (Die habe ich immer nur auf dem Schirm für Hardware Infos, nicht für Spiele)
Das meine ich. Man muss evtl. mal den realen Verlust an Qualität mal besser quantifizieren.
 
Diese willkürliche Einteilung in "Karte ABC ist eine Full-HD/WQHD/4K-Karte" ist doch auch nur Marketinggewäsch, um Flaschenhälse rechtfertigen zu können. Vergleich mal die Rohleistung einer 4070(ti) mit einer 3080 10GB, die ihrerzeit definitiv als 4K-Karte beworben wurde. Solange die reine Leistung des Chips stimmt, ist das absoluter Quatsch, die Performance in höheren Auflösungen mit zu wenig Speicher/zu schmaler Bandbreite wieder zu schmälern bzw. mit dieser künstlichen Einteilung schönreden zu wollen.
zusätzlich kommt der Punkt hinzu, das Spiele nach Veröffentlichung der 1. Graka anspruchsvoller werden, also mehr Leistung verlangen in der gleich gebliebenen Klasse, was zu lasten der nächsten Graka Gen fällt, daher auch eine Abstufung der Klasse bedeuten kann, da diese dann "plötzlich" nicht mehr gut genug für diese Klasse ist.
 
Was ich aus dem Thread mitnehme ist, dass die Leser (je nach Lager) wollen, dass man bei VRAM - Tests " ABER AMDS RT-PERFORMANCE IST SCHEI*E", bei RT-TESTS: "ABER NVIDIAS VRAM IST SCHEI*E", bei CPU-TESTS : "ABER AMD IST EFFIZIENTER/ABER INTEL IST IM LEISTUNGSINDEX 0,1% VORNE!" dazu schreibt. Und zwar in jeden Absatz. Eigentlich ans Ende von jedem Satz. Und dem Fazit. Und in der Überschrift.

Was aber vor allem @Bobhais nicht zu verstehen scheint ist, dass dieser Test wahrscheinlich daher entstanden ist, dass im Forum vorher alle Nvidianer immer propagiert haben: "der VRAM reicht aus, frühestens in 200 Jahren merkst du da was, Nvidia ist ja auch viel effizienter mit dem Speicher, blablabla". Nun also zu sagen "Aber jetzt werden alle AMDler sagen Nvidia ist kacke. Nein, eigentlihc werden die AMDler wenn überhaupt nur sagen: "Ich habs dir ja gesagt."

Naja, danke für den Test, Raff. Ich finde sowas an sich immer spannend - auch wenn ich selbst einen der "VRAM - Krüppel" habe - ich zocke aber eh nur in WQHD und kaufe nächste Gen wieder ne neue Karte.
 
Was ich aus dem Thread mitnehme ist, dass die Leser (je nach Lager) wollen, dass man bei VRAM - Tests " ABER AMDS RT-PERFORMANCE IST SCHEI*E", bei RT-TESTS: "ABER NVIDIAS VRAM IST SCHEI*E", bei CPU-TESTS : "ABER AMD IST EFFIZIENTER/ABER INTEL IST IM LEISTUNGSINDEX 0,1% VORNE!" dazu schreibt.
Dafür gibt es Tests die auch die Vram Geschichte aus mehreren Blickwinkeln betrachten.
Und zwar in jeden Absatz. Eigentlich ans Ende von jedem Satz. Und dem Fazit. Und in der Überschrift.
Du hast DLSS vergessen. =)
Was aber vor allem @Bobhais nicht zu verstehen scheint ist, dass dieser Test wahrscheinlich daher entstanden ist, dass im Forum vorher alle Nvidianer immer propagiert haben: "der VRAM reicht aus, frühestens in 200 Jahren merkst du da was, Nvidia ist ja auch viel effizienter mit dem Speicher, blablabla".
Sowas darf man schon 3x nicht glauben. Deshalb gibt es immer noch andere Auflösungen und Settings und vor allem massig Spiele wo das nicht ansatzweise so ist.
Ich finde sowas an sich immer spannend - auch wenn ich selbst einen der "VRAM - Krüppel" habe - ich zocke aber eh nur in WQHD und kaufe nächste Gen wieder ne neue Karte.
Und genau das passiert dann eben. User sehen selbst ihre 16GB Karte in WQHD schon als "Vram Krüppel". Du tappst also völlig in die Vram Panik Falle, wie vorhergesagt. Da hast du nen absoluten Fehlkauf getätigt, die 24 GB RX 7900XTyx wäre viel besser gewesen. :fresse: Spaß bei Seite.

Wenn du nächste Gen schon wieder kaufst, wäre die 12GB RTX 4070 Ti wohl mehr fürs Geld gewesen. :-D
 
Ja, die sind bei der Diskussion irrelevant!

Aber bei mir und das reicht und da kann kein anderer User sagen, aber für Gamer spielt das keine Rolle.

Es gibt kein Pauschal für alle richtig.

Sofern es nicht wieder irgendwelche versteckten super duper, über Settings nachträglich gab, ja.
Ok
Kann es sein das es nachgepacht wurde
Hab es gleich in der ersten Woche nach Release durch gespielt

Und da hatte ich h schnell einen speicherüberlauf (nachladeruckler und Hauptspeicher vollgelaufen)
 
Ok
Kann es sein das es nachgepacht wurde
Hab es gleich in der ersten Woche nach Release durch gespielt

Und da hatte ich h schnell einen speicherüberlauf (nachladeruckler und Hauptspeicher vollgelaufen)
Auch da gab es den Patch danach ;), aber mit welcher Karte hattest du den Überlauf?
Was ich aus dem Thread mitnehme ist, dass die Leser (je nach Lager) wollen, dass man bei VRAM - Tests " ABER AMDS RT-PERFORMANCE IST SCHEI*E", bei RT-TESTS: "ABER NVIDIAS VRAM IST SCHEI*E", bei CPU-TESTS : "ABER AMD IST EFFIZIENTER/ABER INTEL IST IM LEISTUNGSINDEX 0,1% VORNE!" dazu schreibt. Und zwar in jeden Absatz. Eigentlich ans Ende von jedem Satz. Und dem Fazit. Und in der Überschrift.
Das trifft so nicht ganz zu (natürlich nur subjektiv ;))
Was aber vor allem @Bobhais nicht zu verstehen scheint ist, dass dieser Test wahrscheinlich daher entstanden ist, dass im Forum vorher alle Nvidianer immer propagiert haben: "der VRAM reicht aus
Nope, da das ist hier nicht der generelle Ton im Forum. Es wird immer zu herunter gelattet, das 12GB sind pauschal einfach zu wenig für XY € zum Beispiel, was aber nicht haltbar ist als Aussage.

Denn allein das es Nutzer gibt, die eine Gewisse Prio haben und damit mit einer grünen 12GB Karte nach wie vor besser bedient sind, als einer 20GB roten führt diese Aussage als nicht haltbar vor.

Daher kommt auch der Bezug zur RT Leistung bei der Konkurrenz.
Dabei geht es gar nicht wirklich darum, sondern zeigt nur auf, wie wenig sich viele hier auf andere Gedankenwege einstellen können.
, frühestens in 200 Jahren merkst du da was, Nvidia ist ja auch viel effizienter mit dem Speicher, blablabla". Nun also zu sagen "Aber jetzt werden alle AMDler sagen Nvidia ist kacke. Nein, eigentlihc werden die AMDler wenn überhaupt nur sagen: "Ich habs dir ja gesagt."

Aber das ist ja quatsch... Das könnte nur zutreffen, wenn User XY sich jetzt beschwert, weil er lieber für den Kaufpreis der grünen Karte, die maximale Raster Leistung hätte haben wollen. Dann könnte man sagen, das meinten wir vorher. (Ich habs dir ja gesagt ist auch schon eine Unart, aber egal.

Stattdessen kommt hier 12GB sind pauschal einfach zu wenig,
dann Reaktion für den und den User, mit Prio XY kann aber eine AMD für das Geld nicht mehr bieten,
Antwort darauf, ist entweder das habe keine Relevanz (Was absoluter Quatsch ist, weil das jeder selbst beurteilt). Oder aber, aber 12GB sind einfach zu wenig..

Dazu kann man konstruktiv Beispiele nennen,

dann hier..."bla bla bla, wow was hier die Nvidia Jünger wieder am Fighten sind, bla bla bla".

@seahawk hatte hier interessanter weise einen Test von Techpowerup rein gestellt, bei dem es super Bildvergleiche gibt in original Auflösung und mit der Möglichkeit zu Zoomen (übrigens für fast alle der VRam Fresser Spiele der letzten zwei Jahre so ziemlich).

Da kann man konstruktiv drauf eingehen und auch zum selber anschauen einladen, das zum Beispiel sich die Texturen sogar mit Zoom, beim Wechsel von Ultra auf High nicht sichtbar verschlechtern (kein Spaß), selbst noch eine Stufe weiter runter sah überwiegend nur mit Zoom schlechter aus.

Reaktion darauf, aber 12GB sind pauschal einfach zu wenig, für den Preis...
Naja, danke für den Test, Raff. Ich finde sowas an sich immer spannend - auch wenn ich selbst einen der "VRAM - Krüppel" habe - ich zocke aber eh nur in WQHD und kaufe nächste Gen wieder ne neue Karte.
Keine Bange, schau dir mal die Bildvergleiche bei Techpowerup an...

Dann lieber VRam Krüppel, als RT Krüppel (Plaktativ formuliert, ich weiß), denn RT on/off, oder reduzieren hat bei den letzten großen Spielen mit RT einen sehr viel deutlicheren Einfluss auf das Bild, ebenso die Unterschiedlichen Upscaling Verfahren.
 
Zuletzt bearbeitet:
Apropos Patches - frischer Input von/für Alan Wake 2. Erinnert an die Logs von Lords of the Fallen:

Performance (aka the Northlight flex section)
  • [PlayStation 5] Fixed the random stuttering during perfect dodge slow-motion moves.
  • [PC] Changing the graphics settings is now… snappier.
  • [PC] Optimized shadow map rendering saving up to 0.3ms in the Dark Place.
  • [Xbox Series] Optimized point and spotlight culling, shaving off 0.3ms in locations where lights are aplenty.
  • [PlayStation 5] Optimized UI rendering when there are a lot of UI elements on screen, such as when the Inventory is visible, resulting in smoother performance.
  • Optimized character controller code for improved CPU performance, saving up to 1ms – 2ms in locations with dense geometry.
  • Lighting optimizations inside the Overlap in RE01 Invitation saving 1ms – 1.2ms for smoother performance.
  • Lighting optimizations around the Valhalla Nursing Home during RE05 Old Gods saving 0.3ms – 0.4ms.
  • The good kind of lighting and fog optimizations around Watery that didn’t result in downgrading the visuals.
  • Slightly optimized texture memory usage. Slightly.
Das sind so die Dinge, welche sich nach vielen Monaten aufsummieren und vor allem "Grenzbereichgrafikkarten" helfen. Wer mit 'nem Puffer kauft, muss nicht darauf warten.

#benchmarksasaservice

MfG
Raff
 
Und genau das passiert dann eben. User sehen selbst ihre 16GB Karte in WQHD schon als "Vram Krüppel". Du tappst also völlig in die Vram Panik Falle, wie vorhergesagt. Da hast du nen absoluten Fehlkauf getätigt, die 24 GB RX 7900XTyx wäre viel besser gewesen. :fresse: Spaß bei Seite.
Ne, ich tappe in gar keine Falle. Ich kaufe jede Gen eine neue Karte. Egal welche Marke, egal welche Gen. Das ist so mein Ding. Das mache ich auch nicht weil ich denke mir geht der VRAM aus, sondern weil ich ungern Details reduziere. Bisher waren es halt immer die "Nummer 2" Karten, 4080, 3080ti etc. Da ich mir spätestens nächstes Jahr den WQHD OLED auf 4K OLED upgrade, wirds dann wohl die 5090.
Nope, da das ist hier nicht der generelle Ton im Forum. Es wird immer zu herunter gelattet, das 12GB sind pauschal einfach zu wenig für XY € zum Beispiel, was aber nicht haltbar ist als Aussage.
Daher explizierte ich: "Die Nvidianer". Ja. die AMDler haben (in meinen Augen zumindest teilweise zu Recht) auf dem VRAM rumgehackt, das konnte durchaus auch schon nervige Züge annehmen. Aber dann kamen immer die gleichen grünen Litfasssäulen, die dann ziemlich genau das gepostet haben, was du von mir zitiert hast.
 
Auch da gab es den Patch danach ;), aber mit welcher Karte hattest du den Überlauf?
Rx 6700xt
Und genau diese Einstellung ist dein Problem und das der anderen, die meistens etwas gegen Nvidia haben und diesen Speichertest als den heiligen Gral dafür sehen endlich das ultra Argument gegen den RT Vorteil verwenden zu können, obwohl das wenig miteinander zu tun hat.

Ein Produkt hat Vorteile und Nachteile. Auf einer 4070 Super in 4K nicht alles maximieren zu können, weil in wenigen Beispielen der Speicher limitiert, trifft zu. Das tut es aber in den anderen Auflösungen nicht einmal ansatzweise. Und die Konkurrenz kann das mit RT schon gleich gar nicht. Abgesehen davon spielt nicht jeder in 4K.

In WQHD sieht das so aus und da sind wir weit entfernt von Speicherproblemen. Gut, die Radeons mit 12GB vielleicht nicht. Bei der Faktenlage die ja mehr darstellt als gepickte Ergebnisse unter Maximalsettings in 4K, die kaum spielbar sind.

Anhang anzeigen 1450609
Einem einreden das falsche Produkt erworben zu haben, aufgrund wenigen edge cases, die zudem easy behebbar sind, prallt an mir ab. Wer so argumentiert darf schon seit Jahren keine AMD Karte mit der Kneifzange anfassen.
Und ich habe sehr genau überlegt ob ich nicht die 7900 GRE kaufe.

Ätschibätsch Fehlkauf zu rufen zieht bei mir nicht. Auch nicht dann wenn es eine 7900 GRE geworden wäre.

Du hast privat jede Menge Geld für eine 4090 ausgegeben und auch andere haben viel Geld für Karten mit großem Speicherpolster ausgegeben und wechseln die Karten aber wie ihre Unterhosen. Also ist das Gerede von den ach so großen Speichervorteilen Übertreibung. Die 4070 Ti 12G wird jetzt 1 Jahr alt und es gibt bis heute keinen Fall bei dem man damit so eingeschränkt ist, dass man die Karte verkaufen müsste, es sei denn man lauscht dem Flurfunk im Forum oder deiner zugespitzten V-ram Panik.

Ich bekomme die Daten auch anderswo. Und damit heute der, der sich 2022 eine 4080 statt einer 12GB 4070Ti gekauft hat, so wahnsinnig profitiert, muss er sich gewaltig anstrengen. Die richtigen Spiele spielen und dann alles in 4K aufdrehen was es gibt. Das ändert sehr viel. Und das ist dann auch kein Fehlkauf, weil die andere Karte viel! teurer war.

Die wird es immer geben. Die gab es auch damals schon als im Grunde nur 8GB Karten verfügbar waren.
Neue Konsolen liegen in weiter Ferne.

Ihr informiert ganz bewusst nur über diese Grenzfälle in diesem Artikel. Keinerlei Anleitung oder Hinweis welcher Regler das geradebiegt und wie relevant das überhaupt ist, wenn man nicht an einem 4K Monitor sitzt.

Das kommt auf den Einsatzbereich an, wie viel ein Produkt kostet und was es sonst gegenüber einem anderen Produkt kann. Aber man will unbedingt einen Aufreger haben.
Sind wir hier eigentlich im Kindergarten?
Du findest den Teat kacke?
Dann ignoriere ihn.. So einfach
Desweiteren wird mit den Karten sehr wohl mit FSR/DLSS Iin 4k gespielt.. Auch wenn du krampfhaft behauptest es ist nicht so...

Du meinst der Test ist völlig unrealistisch weil keiner so spielt? Ja ein Test soll immer Grenzen aufzeigen... Nach deinem Argument muss mann auch jeden CPU Test in LowRes wegwerfen so spielt ja keiner....
Okay.. deine Meinung

Tip: ignoriere Test die du nicht gut findest und reg dich nicht auf als wenn dir einer dir deine Grafikkarte wegnehmen würde..

Ist ja echt ned normal
 
Zuletzt bearbeitet:
Nach pcgh sind es 500 MB gegenüber nvidia
Nicht wirklich... Genaue Angaben bei pcgh kenne ich nicht, aber

Pcgh hatte Anfang 2023 schon ermittelt das AMD 12 GB anfangen zu ruckeln, wenn rtx 3000 12 GB noch flutsch und wenn rtx3000 ruckelt, flutscht rtx4000 noch.


Die Tage hat hier einer zahlen einer anderen Seite verlinkt, da waren es oft auch 1,5 bis 2,5 GB.

Wichtig ist nur das es nicht gleich zu setzen ist.
 
Desweiteren wird mit den Karten sehr wohl mit FSR/DLSS Iin 4k gespielt.. Auch wenn du krampfhaft behauptest es ist nicht so......
Wo soll ich das gesagt haben?
Du meinst der Test ist völlig unrealistisch weil keiner so spielt?
Jemand mit ner 12 GB 4070 Ti wird so nicht spielen.
Ja ein Test soll immer Grenzen aufzeigen... Nach deinem Argument muss mann auch jeden CPU Test in LowRes wegwerfen so spielt ja keiner....
Okay.. deine Meinung
Nö. Erzähle mir bitte nicht was meine Meinung ist.
 
Nicht wirklich... Genaue Angaben bei pcgh kenne ich nicht, aber

Pcgh hatte Anfang 2023 schon ermittelt das AMD 12 GB anfangen zu ruckeln, wenn rtx 3000 12 GB noch flutsch und wenn rtx3000 ruckelt, flutscht rtx4000 noch.


Die Tage hat hier einer zahlen einer anderen Seite verlinkt, da waren es oft auch 1,5 bis 2,5 GB.

Wichtig ist nur das es nicht gleich zu setzen ist.
Bei einem Test hat pcgh Hardware geschrieben, finde Ihn gerade nicht, dass 8 GB von nvidia 8.5 beim amd sind und 9 bei intel
Wo soll ich das gesagt haben?

Jemand mit ner 12 GB 4070 Ti wird so nicht spielen.

Nö. Erzähle mir bitte nicht was meine Meinung ist.
Aha du weisst das keiner mit einer 470 ti so spielen wird
Und oben sagst du noch du hast es nicht gesagt...
Quelle das keiner mit dlss/fsr sich vor den TV planzt und die 4k Auflösung vom TV mitnimmt
Ich mache es sogar mit meiner 6700xt

Und warum regst du dich wie ein skleinkimd über einen Test auf der die Grenzen von Nvidias Speicher Geiz aufzeigt?

Ignorier doch einfach den Test

So einfach kann das Leben sein

Ps: in low res spielt wirklich keiner trotzdem sind cpu Test auch nur so sinnvoll
 
Zurück