News Streitfall "Grafikspeicher": Nvidia geht mit nur 8 GiByte jetzt in die Offensive

Vielleicht erwachen jetzt auch so langsam die letzten Hardcore-Fanboys :)
Ich meine, man kann sich doch nicht alles schönreden?

Letztlich geht es ausschließlich darum, noch mehr Kasse zu machen.
Man hat ja in den letzten zwei, drei Jahren so sehr darben müssen.
In meinen Augen eine recht dreiste Argumentation. Die scheinen die Kunden für komplette Idioten zu halten.

Von der Technik her sind die Dinger schon gut, aber dieses "biszurabsolutenneigeausmelken" des Kunden
ist einfach zu viel des Guten. Apple macht das aber genauso, eher noch übler.

Naja, ne NVidia kommt sowieso keine (mehr) her.
Ihr habt bei mir leider verschissen, Jungs. Und das nicht nur für´s kommende halbe Jahr.
(wobei das denen egal ist)
Welche aktuelle AMD bietet ein signifikant besseres P/L Verhältnis, also neutral betrachtet. Was die leistung ohne und mit RT betrachtet, sowie Verbrauch Last Idle usw. Features?

keine Abverkauf GPU, sondern nur die aktuelle Gen.
 
Ich verstehe nicht dass man heute im PC-GAMING überhaupt noch von fhd spricht. Das ist doch Müll.

FHD kann mit einer größeren Diagonale auch dann interessant sein, wenn das Sehvermögen nicht mehr gar so gut ist.
Da ist nämlich alles deutlich größer und somit leserlicher.
Selbst bin ich glücklicherweise nicht betroffen, ein Freund von mir hingegen schon.
Bei mir tut es ne schwache Lesehilfe, damit klappt das auch mit UHD noch gut, er kann da absolut nix mehr lesen.
Bei ihm ist die Untergrenze wirklich ein 27er mit FHD, damit kommt er noch klar.
Ich gehe selbstverständlich von der nativen Auflösung auf, so wie man einen Monitor eben einsetzen sollte.
Man nutzt einen PC ja nicht nur für Gaming, sonst könnte man ja gleich zur Konsole greifen.

Momentan verwende ich allerdings auch noch FHD und zwar ein "Billigteil", 22er Iiyama mit 75Hz.
Aus Platzgründen geht es dort nicht anders und damit kann man durchaus leben.
Demnächst wird anders gestellt, dann kommt was größeres her, aber nicht mehr als 2560, reicht mir völlig.
Ein netter 27er mit ca. 144Hz und fertig ist die Laube. Das hält sich dann auch kostenmäßig im Rahmen.
Ais Einkäufer achte ich immer auf das P/L und die TCO, das sind die für mich entscheidenden Faktoren, neben der
Qualität versteht sich.


@derneuemann
Aktuell sollte man eigentlich gar nix kaufen wenn man das so betrachtet.
Oder eben nur die Topmodelle, was ich zwar könnte allerdings absolut nicht einsehe weil sich das für mich einfach nicht
rechnet.
NV-Karten der EInstiegs-/MIttelklasse sind mir einfach zu sehr auf Kante genäht. Dazu nutze ich die Karten zu lange,
daher kommen die nicht in Frage. Nutzt mir nix wenn die schneller laufen und ich dafür ggf. früher in irgend ein Limit
komme. Somit sind die bei mir eben raus. Weiterhin sehe ich für mich ein besseres P/L bei AMD als bei NV.
Was genau als Ersatz der 590er herkommt ist noch offen, bei NV sehe ich da einfach nichts passendes.
Außer den zwei Topkarten ist da nix mit bei. Und deren Preise bin ich einfach nicht bereit zu zahlen.
Vielleicht wird es sogar ne 67xxXT, die sind gerade preislich recht interessant.
Für meinen Einsatzzweck sollten die durchaus genügen.

In den Wohnzimmerrechner (noch gibt es ihn nicht) soll sogar ne NV reinkommen, 3060/12, da AMD meines Wissens
nix in der passenden Größe (max. Länge 200mm) im Angebot hat bzw. nur mit dem PCIe-Limit (keine 16 Lanes).

Selbstverständlich hatte ich früher schon etliche NV im Einsatz, so ist es nicht.
 
Zuletzt bearbeitet:
Nvidia: Wir haben jetzt 21MiByte mehr Cache - Das kompensiert 8 GiByte VRAM :wow::what::lol:
Da kommt man nach 2 Wochen Urlaub wieder nach Hause und das erste was man lesen muss sind peinliche Räuberpistolen und unwahre Behauptungen und das auch noch von einem Redakteur.
Du kannst mit 32mb Cache die Bandbreite kompensieren, aber nicht die Speichernutzung. :lol:
Sowas von lachhaft!

Nvidia schreibt:

werden die Daten schneller abgerufen und verarbeitet, was die Leistung und den flüssigen Spielfluss erhöht und den Stromverbrauch reduziert.
eder zusätzliche Datenlese- oder -schreibvorgang durch die Speicherhierarchie verlangsamt die Leistung und verbraucht mehr Strom, sodass wir durch die Erhöhung unserer Cache-Trefferrate die Bildraten und die Effizienz erhöhen.
Diese Reduzierung des Datenverkehrs um 50 % ermöglicht es der GPU, ihre Speicherbandbreite 2-mal effizienter zu nutzen. Daher würde in diesem Szenario eine Ada-GPU mit einer Spitzenspeicherbandbreite von 288 GB/s eine ähnliche Leistung erbringen wie eine Ampere-GPU mit einer Spitzenspeicherbandbreite von 554 GB/s.
Da geht es um Bandbreite nicht um Speichermenge. Dass man so etwas erklären muss. Unglaublich.
 
Zuletzt bearbeitet:
Da kommt man nach 2 Wochen Urlaub wieder nach Hause und das erste was man lesen muss sind peinliche Räuberpistolen und unwahre Behauptungen und das auch noch von einem Redakteur.
Du kannst mit 32mb Cache die Bandbreite kompensieren, aber nicht die Speichernutzung. :lol:
Wobei ich eine kleinere Einsparung in der Speichernutzung, von mir aus ein paar Hundert MB für denkbar halte.

Sowas von lachhaft!

Nvidia schreibt:




Da geht es um Bandbreite nicht um Speichermenge. Dass man so etwas erklären muss. Unglaublich.
 
Vieles gelesen bezgl. NVidias Aussagen zu erhöhter Cache vs. reduziertem VRam.
Ich hab mir das eben durchgelesen und nirgendwo steht etwas von reduziertem Ram.
Es geht einfach nur darum das Thema aufzubauschen und mit Falschaussagen Klicks zu generieren.
Wobei ich eine kleinere Einsparung in der Speichernutzung, von mir aus ein paar Hundert MB für denkbar halte.
Kann natürlich in minimalem Umfang sein, nichtsdestotrotz bezieht sich Nvidia darauf an keiner Stelle.
 
Also sowas wie kantenglättung erhöht ja den Speicherbedarf wieder. Sowas kann man mit extra cache nicht abmildern. Man kann höchtens das der Chip nicht überlastet wird bzw arbeiten abnehmen. Aber davon haben solche gpus ja mehr als genug davon. Vorallem wo will man zum Beispiel bei full hd die arbeiten groß abmildern bei einer gpu.
 
Man kann sich unendlich über die Notwendigkeit von bestimmten VRam Größen unterhalten.
Ich selbst halte 8 GB zunächst für zu wenig, weil meine Beobachtung ist, dass bei vielen aktuellen Spielen 10-12 problemlos angeknabbert werden (4K-Ausflösung).

Ich gehe mal den Kostenfaktor bei der Herstellung an.
Mir hat mal einer erzählt, der bei Asus arbeitete, dass VRam anteilig keine 5 % bei einer GPU kosten würde.
Nimmt man eine exemplarische 4070ti, die irgendwo um die 900 € mit 12 GB herumflaggt, würde milchmädchenhaft gerechnet eine Reduktion auf 8 GB gerade mal 30 € "Ersparnis" im Herstellungsprozess bringen.
Tja...

Wenn nun "schaltungstechnisch" versucht wird, die 8 GB als ausreichend zu verbasteln, bleibt für mich nur ein Schluss:
NVidia hat zu viele Entwicklungsingenieure, die sich gegenseitig im Entwicklungsorbit umkreisen, damit die Bonizahlungen weiterhin fließen.
 
Da kommt man nach 2 Wochen Urlaub wieder nach Hause und das erste was man lesen muss sind peinliche Räuberpistolen und unwahre Behauptungen und das auch noch von einem Redakteur.
Du kannst mit 32mb Cache die Bandbreite kompensieren, aber nicht die Speichernutzung. :lol:
Sowas von lachhaft!

Nvidia schreibt:




Da geht es um Bandbreite nicht um Speichermenge. Dass man so etwas erklären muss. Unglaublich.
Da geht es um die Wirkung beim lesen des Artikels, das du überhaupt anfängst etwas zu erklären ist unglaublich... ;-)
 
FHD kann mit einer größeren Diagonale auch dann interessant sein, wenn das Sehvermögen nicht mehr gar so gut ist.
Da ist nämlich alles deutlich größer und somit leserlicher.
Selbst bin ich glücklicherweise nicht betroffen, ein Freund von mir hingegen schon.
Bei mir tut es ne schwache Lesehilfe, damit klappt das auch mit UHD noch gut, er kann da absolut nix mehr lesen.
Bei ihm ist die Untergrenze wirklich ein 27er mit FHD, damit kommt er noch klar.
Ich gehe selbstverständlich von der nativen Auflösung auf, so wie man einen Monitor eben einsetzen sollte.
Man nutzt einen PC ja nicht nur für Gaming, sonst könnte man ja gleich zur Konsole greifen.

Momentan verwende ich allerdings auch noch FHD und zwar ein "Billigteil", 22er Iiyama mit 75Hz.
Aus Platzgründen geht es dort nicht anders und damit kann man durchaus leben.
Demnächst wird anders gestellt, dann kommt was größeres her, aber nicht mehr als 2560, reicht mir völlig.
Ein netter 27er mit ca. 144Hz und fertig ist die Laube. Das hält sich dann auch kostenmäßig im Rahmen.
Ais Einkäufer achte ich immer auf das P/L und die TCO, das sind die für mich entscheidenden Faktoren, neben der
Qualität versteht sich.
Du hast natürlich Recht, es gibt immer ein paar Ausnahmen wo dies und das ok ist. Aber hier gehts am Ende um die Masse und der allgemeine PC Gamer der auch richtig viel Kohl auf seinem Konto rumliegen hat um sich eine gpu >600€ zu kaufen inkl. die dafür nötige cpu >300€ sollte dann auch genug Geld haben um 2023 einen Bildschirm >30" zu haben sonst ist das System "unausgewogen". Ich stecke ja auch keinen Ryzen 5800x3d/I5 13600k in ein 16gb DDR 2666 + HDD System.
Klar kann man alles machen, aber zielführend ist dies nicht.
Wenn man heutzutage von Mittelklasse spricht und dabei Rtx4070/4060ti spricht dann ist dies mindestens 1440p/4k als Ziel. Auch in 4k schaffen diese Karten in den meisten Games (die Ausbahmen sind eher eine Hand voll schlecht optimierte Games) ohne RT >60fps. Und ab 60fps gilt alles im allgemeinen als flüssig.
 
Meine Vega kann das mit 32 GB Cache. :lol:
Deine Vega reserviert einen Teil des Hauptspeichers. Da Hauptspeicher relativ langsam ist, ist das Wort "Cache" ziemlicher Unfug. :-D
Da geht es um die Wirkung beim lesen des Artikels, das du überhaupt anfängst etwas zu erklären ist unglaublich... ;-)
Die Wirkung ist, dass Nvidia die Wahl von 8GB verteidigt, aber nicht behauptet, dass Cache das ausgleicht. Der Artikel ist teils unsinnig, wie auch dein Beitrag.
Aber nein sie sagen indirekt durch die Blume 8GB ist schick und reicht.
Nicht ganz, siehe hier. Immerhin räumen sie ein, dass 8GB nicht immer reichen.
Und es gibt eine Handvoll Spiele, die am besten mit der Voreinstellung "Hoch" auf der 4060 Ti (8 GB) und den maximalen "Ultra"-Einstellungen auf der 4060 Ti (16 GB) laufen. In den meisten Spielen können beide Versionen der GeForce RTX 4060 Ti (8 GB und 16 GB) mit maximalen Einstellungen gespielt werden und liefern die gleiche Leistung.
 
Zuletzt bearbeitet:
Gut das deine Meinung nur deine Meinung ist und nichts was du anderen aufzwingen kann. Ich weiß nicht wie verblendet sein muss, das man nicht über den eigenen Tellerand schauen kann.

Wie gesagt, einfach unterirdisch... Zumal eine PS5 in neuen Titeln auch keine bessere Optik bietet, von der man zuvor noch sprach.

Jetzt wird es noch unterirschischer, warum kein Geld ;) Das ist Müll und zwar bezogen auf eine arg beschränkte Sichtweise.

Das interessiert aber im allgemeinen keinen. Es geht nicht um dich und mich, es geht um eine GPU die für eine Gewisse Zielgruppe ausgelegt ist. Egal was du darüber denkst.

Und es geht absolut unterirdisch weiter. Das ist so klein ;)



Sicher, für Windows Kartenspiele brauche ich keine 3060ti. Für neue Spiele mit TopGrafik reicht die 3060ti in der Auflösung sicher nicht für konstante 60Fps und mehr. Nicht in Hohen,., bis sehr hohen Einstellungen.

Nein, veraltete Grafik in hoher Auflösung ist nicht so mein Ding. Dann lieber aktuelle Grafik in etwas niedrigerer Auflösung.
Wer sagt 4090 für 1440p? Du kannst erstmal nutzen was du willst, für welche Auflösung auch immer.
Aber für 1440p ohne Überbreite wäre ohne Einschränkungen eine 4080 die richtige Wahl. (Was auch meine Wahl sein wird, oder die 7900XTX, aber die schon wieder mit Einschränkungen bei RT)

ich würde dir auch lieber raten still zu sein, wenn du nicht über den Tellerand schauen kannst.

Unterirdisch. Wer bist du, das zu entscheiden.

Wieder der nächste unüberwindbare Tellerand.

Du meinst wie für andere 4k. Sorry, ich habe einige andere Monitore in den letzten Jahren auf dem Tisch gehabt. 4k, 1080p 144Hz und 1440p. Das ist so ein Hype den Angeber haben müssen, mehr nicht. Das beste ist, erstmal auf 1080p wenn überschüssige leistung da ist, mal in 4K auflösen und feststellen das das schon noch einiges bringt.

Mein persönlicher Weg ist 2560x1440p, aber dennoch kann ich jeden verstehen der mit einer 4070 1080p, oder anfänglich 1440p zocken will, genau wie jeden der nur in 4k zocken will. nur weil ich eine andere Vorstellung habe, bedeutet das nicht, das ich mich da nich reinversetzen , oder meinen Blickwinkel ändern kann.


Nein. Wäre deine Antwort aus einem anderen Blickwinkel.

Ich sage mal, für mich nicht. Lieber mit höchsten Einstellungen als in höherer Auflösung.

3060ti würde ich aktuell nur nutzen wollen, für 1080p mit Abstrichen. 4060ti nur für 1080p, für 1440p eigentlich eine 4070ti, oder 4080. Für 4k ab 4080, oder halt 4090.

Natürlich alles immer auch mit den AMD Gegenspielern. Also 4070ti ersetzt durch 7900XT und 4080 ersetzt durch 7900XTX, in Abhängigkeit von anderen Kriterien, wie VR zum Beispiel.

Das folgende wollen wir mal herausarbeiten ;)


Aber als nächstes kommt von dir

Und schon leiferst du pauschale Aussagen, was deiner Meinung nach alle denken sollten.

ich arbeite auf 3x 27 Zoll 1080p Monitoren, da unsere Firma uns so ausgerüstet hat.

Spiele aktuell auf einem 1080p Monitor, hatte seiner Zeit einem 28 Zoll 4K Monitor zum Vergleich. Ich werden zum Zocken, nach Kauf meiner neuen GPU den Monitor wechseln zu 27, 0der 31,5 Zoll mit 1440p.

Wäre für mich nur etwas für die Arbeit. 49Zoll...


Das kannst du gerne machen.

Ich persönlich werde RT immer nutzen sofern möglich, ansonsten kann ich auch weiter mit mittleren Details zocken, da der optische Utnerschied zu klein.

Weiter finde ich das dort wo RT gut eingesetzt wird, es schon deutlich für eine glaubwürdigere Beleuchtung sorgen kann. Soiegelungen sind auch nett.

Wobei ich dir auch Recht geben muss, das es auch gute Optik ohne RT gibt. Atomic Heart sieht auch recht gut aus.

Max Details ist aber jetzt mit RT.
Ganz aggressiv hier.
Dennoch bleibe ich dabei. Sich eine 2023 600€ gpu für einen fhd Monitor zu kaufen, kann man machen, ob das sinnvoll ist muss jeder für sich entscheiden. Das fühlt sich für mich so an wie wenn ich mit einen 911 Porsche kaufe um damit meine Kinder in 3km entfernt Dorf zur Kita bringe wo max 80km/h erlaubt sind.
Was deine rtx3060ti Erwartungen betrifft: bei schafft die alle games in 5120x1440 mit über 60hz. Rdr2 läuft in max settings bei 80-100 fps, hunt showdown in hohen bis Ultra settings in 70-90 fps. Battlefield V ebenfalls in sehr hohen settings bei 80-100fps.
Also wo ist das Problem. Ab 60fps ist alles flüssig.
Ergo ist rtx4070 schon locker 4k tauglich im Allgemeinen. Ein paar Ausnahmen von Hardwarefresser Spielen gibts natürlich immer. Meist reicht schon den Regler von Ultra auf hoch zu reduzieren und man hat 30 fps mehr. Und optisch ist der Unterschied von hoch zu ultra fast nicht wahrnehmbar. Was macht das für einen Unterschied ob ein Schatten echt gut aussieht oder ob er so richtig echt gut aussieht?
FHD ist im Gaming für mich durch und Schnee von gestern. Wer noch einen Besitzt ist ok, man muss ja nicht sofort alles neu kaufen. Aber wer sich einen 1500€ gaming pc mit rtx4060 ti und schnellen aktueller cpu hinstellt, den würde ich definitiv abraten einen fhd Monitor dazu zu kaufen.Und darum gehts letzlich. Nicht ob es ok ist noch auf alter Hardware zu zocken da sie einfach vorhanden ist. Das ist immer ok, mach ich auch. Hab bis vor 2 Jahren auf 10 Jahre alten I7 870 gezockt einfach weil ich ihn hatte und mir reichte. Dennoch hätte ich niemanden vor 2 Jahren dazu geraten sich diese cpu zu kaufen.
Da muss man einfach differenzieren und nicht alles so schwarz/weiss sehen.
Basis für solche Diskussionen sind immer "sinnvolle Neuanschaffungen". Mein PC hat sogar ein 13 Jahre uralt Gehäuse wo ich nicht mal GPU >28cm reinbekomme und auch nur 530W. Bin ich damit zufrieden: Ja. Reicht es mir: ja. Kann ich es anderen empfehlen: nein. Ich hab es weil ich es schon lange habe und erstmal nicht ändere.
Würde ich neukaufen wäre es was anderes/größeres/stärkeres.
Und vorallem ist dies nicht besonders lobenswert wenn du auf meine Meinung, auch wenn sie dir nicht gefällt gleich persönlich anfeindend antwortest. Dies ist am Ende nix anderes als Intoleranz wenn mir vorwürfst "ich schaue nicht über den Tellerand".
 
Langsam häh? Die Profi Vega benutzt zusätzlich noch M.2 SSDs als Cache. Selbst das ist noch schnell genug für 8K Videoschnitt und Content Creation.
 
Auch in 4k schaffen diese Karten in den meisten Games (die Ausbahmen sind eher eine Hand voll schlecht optimierte Games) ohne RT >60fps. Und ab 60fps gilt alles im allgemeinen als flüssig.
Alles total widersprüchlich was von dir argumentiert wird.
Einerseits sagst du Full HD sei Müll, auf der anderen Seite sollen Mittelklasse Karten für 4K geeignet sein, was die gar nicht schaffen. Vielleicht mit niedrigeren Einstellungen, DLSS oder FSR.
Wo du dann wieder bei WQHD oder Full HD ankommst...
RAM ist halt viel langsamer als Grafikspeicher.
Die Profi Vega benutzt zusätzlich noch M.2 SSDs als Cache.
Hast du von der Profi Vega gesprochen? Nein.
Mal davon abgesehen, dass das HBCC Feature von Vega kaputt ist.
 
Zuletzt bearbeitet:
Du hast natürlich Recht, es gibt immer ein paar Ausnahmen wo dies und das ok ist. Aber hier gehts am Ende um die Masse und der allgemeine PC Gamer der auch richtig viel Kohl auf seinem Konto rumliegen hat um sich eine gpu >600€ zu kaufen inkl. die dafür nötige cpu >300€ sollte dann auch genug Geld haben um 2023 einen Bildschirm >30" zu haben sonst ist das System "unausgewogen". Ich stecke ja auch keinen Ryzen 5800x3d/I5 13600k in ein 16gb DDR 2666 + HDD System.
Klar kann man alles machen, aber zielführend ist dies nicht.
Wenn man heutzutage von Mittelklasse spricht und dabei Rtx4070/4060ti spricht dann ist dies mindestens 1440p/4k als Ziel. Auch in 4k schaffen diese Karten in den meisten Games (die Ausbahmen sind eher eine Hand voll schlecht optimierte Games) ohne RT >60fps. Und ab 60fps gilt alles im allgemeinen als flüssig.

Das bestimmt jeder selbst!

Ich werde in kürze eine 4080, oder eine 7900XTX kaufen und damit entweder weiter auf 1080p mit RT zocken, oder maximal auf 2560x1440...

Das gilt somit als Beweiß das Pauschal keine Aussage getätigt werden kann.

Ich persönlich würde auch eher denken, das wenn man von Mittelklasse spricht, GPU Käufer bis 600€ (im äußersten Fall bis 600) meint und das diese auch überwiegend in WQHD spielen und häufiger in FullHD, als in 4k.

Außderdem,

nach deiner Logik könnte ich doch jetzt auch behaupten, da nach meinen Kriterien keine AMD GPU unterhalb der 7900XT überhaupt flächedeckend in der Lage ist, RT in 1440p darzustellen, das AMD nur GPUs für maximal 1080p anbietet. Selbst die 7900XT tut sich schwer, in 1440p, sobald RT stärker genutzt wird.

Machen wir es mal anders herum,

welche karte ist denn die eindeutig bessere Alternative gegenüber der 4060ti und der 4070.

Kann eigentlich nur eine 6750XT und eine 6800XT kommen.

Also schonmal deutlicher Mehrverbrauch und schlechtere RT Leistung. Wer also RT einschalten möchte ist in 1080p besser mit einer 4060ti bedient. Wer in 1440p will ist mit der 4070 bedient.

Soweit in Ordnung!

Denn wer auf RT verzichten will, oder damit zufrieden ist RT nur in Ausnahmefällen nutzen zu können, der ist mit AMD im Abverkauf, abgesehen vom Verbrauch besser dran.

Wer höhere Auflösungen mit reduzierten Details möchte ebenso. Bzw. je nach Frames eventuell auch die 4070 eine option.
 
Was bitte ist daran kaputt? Das habe ich ja noch nie gehört.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Davor war es standardmäßig abgeschaltet.
 
Achja ich kann mich zurück lehnen. So wenig Ansprüche wie ich habe haben wohl die meisten echt nicht. Selbst bei einer neu Anschaffung bleibe ich bei Full hd. Würde der Bildschirm kaputt gehen wäre es wieder mal full hd. Aber halt dann in 144 Hz. Das hat halt ordentliche Ansprüche. Selbst wenn ich diese dann auf 144 fps limitiere wird die gpu richtig was zu ackern haben. Und es gibt setting die ich selbst wenn ich alles auf flüssig zocken könnte sogar noch freiwillig auf low Stelle Wie Nebel mag ich nicht oder ambient oculusion oder diese ganzen unscharfe Effekte stelle ich grundsätzlich aus. Also kann man sich denken wie bei mir dann diablo 4 aussehen wird wenn ich es hätte. Raytracing verzichte ich wenn das game es mal bekommen sollte ebenso. Mir ist das egal. Diese Spiegelung stört mich eher als das gut ist. Wenn ich was glänzendes sheen will muss ich nur bei Regen raus schauen. Das reicht mir schon aus.
Und ich limitiere gerne die fps nach oben hin. Weiß nicht ob es dann wenn ich wirklich an eine rtx 4060 oder so interesse hätte oder ner rtx 4050 weil ebenso 75 Watt da Vorteile dran sehen würde.

Freilich kenne ich keinen der sich ne rtx 4070 oder sowas kaufen würde um sie dann zu drosseln so auf 75 Watt.
Nur ich würde das ja machen.
Darum habe ich aus dem i7 6950x ein nur 30 Watt CPU gemacht. Sowas verrücktes mache nur ich.

Einen neue Hardware stecke ich gerne in ein 10 jahre altes Gehäuse.ich habe das vor. Sollte also der 10 jahre alte PC wirklich hin sein ist dies der plan.

Ich spare also wo ich nur kann. Und habe auch keine Hemmung an so ner starken gpu nur ein 720p Bildschirm dran zu stecken. Da ist dann genau Leistung sogar noch für kantenglättung drinnen bei dieser auflösung.

Standard User bin ich damit ganz sicher nicht.
Ich habe mir sogar wegen einem Programm ne stärkere CPU gekauft gehabt obwohl ich diese sonst nicht auslasten könnte. Sowas machen vernünftige user nicht. Die für 13% mehrleistung 300 € extra ausgeben haben.
 
Ganz aggressiv hier.
Dennoch bleibe ich dabei. Sich eine 2023 600€ gpu für einen fhd Monitor zu kaufen, kann man machen, ob das sinnvoll ist muss jeder für sich entscheiden. Das fühlt sich für mich so an wie wenn ich mit einen 911 Porsche kaufe um damit meine Kinder in 3km entfernt Dorf zur Kita bringe wo max 80km/h erlaubt sind.
Was deine rtx3060ti Erwartungen betrifft: bei schafft die alle games in 5120x1440 mit über 60hz. Rdr2 läuft in max settings bei 80-100 fps

Was schafft die?


in 3440x1440 scahfft die schnellere 3070 nur noch 36 Fps im Schnitt.
, hunt showdown in hohen bis Ultra settings in 70-90 fps
Wenn man berücksichtig das eine 3060ti vielleicht bis zu 20% vor der 2070 liegen könnte dürfte eine 3060ti wohl bei 45Fps liegen.
. Battlefield V ebenfalls in sehr hohen settings bei 80-100fps.
Welch ein Anspruch, reicht das... Warum dann mehr als die 3060ti. Das man mit betagten GPUs auch heute noch spielen kann, ist sowiet klar.
Also wo ist das Problem. Ab 60fps ist alles flüssig.
...
Ergo ist rtx4070 schon locker 4k tauglich im Allgemeinen.
Wie jetzt, in älteren Spielen und mit Abstrichen.


Ein paar Ausnahmen von Hardwarefresser Spielen gibts natürlich immer. Meist reicht schon den Regler von Ultra auf hoch zu reduzieren und man hat 30 fps mehr.
Du meinst das die Bildraten überhaupt erträglich werden.
Und optisch ist der Unterschied von hoch zu ultra fast nicht wahrnehmbar.

Das ist überwiegend so, das der Unterschied begrenzt ist. Aber dann reichen die 12Gb aber auch noch länger ;), oder aber auch die 8GB.
Was macht das für einen Unterschied ob ein Schatten echt gut aussieht oder ob er so richtig echt gut aussieht?
Sieht halt besser aus.. Für mich muss man hier differenzieren. Redet man von neuen GPUs die man für neue Titel kauft und man da das optische Maximum haben will. Oder redet man von den Möglichkeiten mit einer GPU zu überleben, druch Verzicht von Details usw.
FHD ist im Gaming für mich durch und Schnee von gestern. Wer noch einen Besitzt ist ok, man muss ja nicht sofort alles neu kaufen. Aber wer sich einen 1500€ gaming pc mit rtx4060 ti und schnellen aktueller cpu hinstellt, den würde ich definitiv abraten einen fhd Monitor dazu zu kaufen.

Und darum gehts letzlich.
Für dich, oder wo stand das, das es darum geht.
Nicht ob es ok ist noch auf alter Hardware zu zocken da sie einfach vorhanden ist. Das ist immer ok, mach ich auch. Hab bis vor 2 Jahren auf 10 Jahre alten I7 870 gezockt einfach weil ich ihn hatte und mir reichte. Dennoch hätte ich niemanden vor 2 Jahren dazu geraten sich diese cpu zu kaufen.
Da muss man einfach differenzieren und nicht alles so schwarz/weiss sehen.
Das hast du aber gemacht.
Basis für solche Diskussionen sind immer "sinnvolle Neuanschaffungen"

Ja gerne,

eine 4060ti ist eine sinnvolle Karte für 1080p und max Details, mit RT.
eine 4070, für 1440p.
eine 4070ti, 1440ß und 4k
eine 4080 für 4k und die 4090 für das Maximum.

Genauso wie ohne RT
1080p 6700XT
1440p 6800XT und teils RT 7900XT
1440p bis 4k und teils RT 7900XT
4k und teils RT 7900XTX.

Wer mur für reduzierte Anforderung Mittel/Hoch mix Settings und ohne RT will, kann natürloich auch gut mit einer 6800XT noch in 4k auskommen.

Ist halt individuell.

Ich persönlcih würde deine Auflösung zum Beispiel nicht mit weniger als einer 4090 befeuern. Könnte ja auch sagen, das erschließt sich mir nicht warum jemand viel geld in einen Monitor steckt und dann nicht wenigstens eine gescheite GPU dazu kauft. Weil man ansonsten auf Grafikqualität von vor zehn Jahren festgenagelt ist. ;) (Ist bewusst überspitzt)

Für
. Mein PC hat sogar ein 13 Jahre uralt Gehäuse wo ich nicht mal GPU >28cm reinbekomme und auch nur 530W. Bin ich damit zufrieden: Ja. Reicht es mir: ja. Kann ich es anderen empfehlen: nein. Ich hab es weil ich es schon lange habe und erstmal nicht ändere.
Würde ich neukaufen wäre es was anderes/größeres/stärkeres.

Aus privaten kriterien lassen sich keine pauschale Aussage ableiten.
Und vorallem ist dies nicht besonders lobenswert wenn du auf meine Meinung, auch wenn sie dir nicht gefällt gleich persönlich anfeindend antwortest.
Sagt der der nicht über seine eigene Sichtweise raus kommt.
Dies ist am Ende nix anderes als Intoleranz wenn mir vorwürfst "ich schaue nicht über den Tellerand".

Nein, das ist bei deiner Argumentation beobachtbar gewesen. Dennoch sorry, wenn ich zu harsch geworden bin dabei.
Wie gut, daß 2019 schon lange vorbei ist.

Ich kann dir versichern, zur Zeit funktioniert das prächtig.
Tortzdem nie so schnell wie VRam.
 
Zurück