Wieso redest du von 1440P, es geht um 1080P was Nvidia genau so kommuniziert.
Es zeigt ein aktuelles Spiel das Anfangs selbst eine 3080 ruckeln lies, nun selbst auf einer 8GB 1080 einwanfrei läuft.
Einwandfrei ja, nach Patches und Einschnitten beim Texturstreaming läuft es so gerade noch ohne Raytracing mit 8GB. Wenn Du von einer nagelneuen 440 Euro GPU nicht mehr erwartest und in 1-2 Jahren mit Medium / Low Texturen spielen möchtest ist ja Alles ok. Hogwarts ich auch bei Weitem nicht das Schlimmste Beispiel in der Hinsicht.
RTX schaltet man ab wenn man Budget Gaming macht, RT verändert nicht spürbar den Spielspaß.
Eine 440 Euro GPU ist für Dich Budget Gaming? Eine XX60Ti Grafikkarte ist eigentlich die Mittelklasse. Und da soll es normal sein, dass man die beworbenen RTX Features schon in 1080p deaktivieren muss, weil der VRam nicht reicht? Ich habe mit meiner 2060 Super jedenfalls in allen unterstützen Spielen RTX nutzen können (selbst in Cyberpunk), die habe ich mir 2019 angeschafft, zu der Zeit waren 8GB VRam für so eine Karte noch angemessen.
Ich sag ja die Medien und Reviewer (die immer das neuste haben) haben den Leuten eingeredet das man High End HW braucht um ein Spiel wirklich im vollen Umfang genißen zu können.
Ne, PCGH zumindest rät nur davon ab noch 8GB Karten zu kaufen, außer im absoluten Budget Segment (und damit sind nicht 440 Euro gemeint).
Natürlich wird bei Spielen mit UE5 einiges mehr an HW Anforderung aufkommen wo vielleicht eine 1080 von der Rechenleistung an die grenzen kommt, aber leider macht es UE5 möglich das selbst miserable Spiele auf den ersten Blick toll aussehen.
Ja, die 1080 ist ja auch eine GPU aus 2016/2017. Die 4060Ti wird aber als aktuelles Modell ebenfalls abkacken, weil der VRam nicht reicht. Von der Rasterleistung würde sie es packen.