Versuch Cyberpunk 2077 mal mit so was wie einer 780Ti und ner üblichen HDD mit 32MB Cache laufen zu lassen.
Brauche ich nicht, hab noch eine GTX 770 Windforce hier, da scheitert es schon lange vor allen anderen Grafikreglern am 2GB VRAM.
Somal alternde Grafikkarten auch immer noch die in vielen Spielen als erstes auftretende Hürde sind, ob ein neues Spiel noch relativ gut auf dem Rechner läuft, deutlich vor der CPU, dem MB & RAM.
Aber selbst mit einer 5 Jahre alten Grafikkarten, wie einer GTX 980Ti kann man heute ein Spiel wie Cyberpunk, oder AC:V immer noch mit einer recht anschaubaren Optik und spielbaren Frameraten spielen, das sah früher auch mal ganz anders aus...
Da wirste dich wundern wenn selbst auf Low noch die Texturen vor der Nase auftauchen.
HDDS waren schon 2009 ein Problem für das laden von Texturen.
Schon in Anno 1404 hast du mit HDDs das Problem gehabt das die nicht schnell genug waren und du dann dauernd nach dem Insel switching Matschtexturen vor der Nase hattest.
Darum hab ich 2009 auch für damals etwa 180€ mit der 120GB OCZ Vertex meine erste SSD gekauft, so wie nicht wenige andere auch zu der Zeit. Seit mindestens 2012/13 ist mindestens eine 120GB SSD im Rechner, für OS und die 2-3 aktuell gespieltesten Spiele, auch eigentlich der Standard und nicht mehr die HDD.
Persönlich habe ich seit 2016 gar keine HDDs mehr im Rechner in Verwendung, nur noch 5 SSDs mit zwischen 128GB und 1TB Speicher.
Mit alter Hardware ist Hardware von vor 7-8 Jahren gemeint. Was war damals üblich, ein 3770k maximal und ne 780Ti maximal. Das war aber schon Oberklasse.
Der 4820K hat kaum mehr IPC als ein 3770K, das in etwa die gleiche Generation, nur halt ersterer Enthusiasten-Sockel, letzterer Performence-Gamer Sockel, und beide sind 4c/8T CPUs.
Der größte Unterschied zwischen beiden ist maximal das der S. 2011 4820K auf Grund des Quad-Channel-Speicherinterface bei der RAM-Bandbreite noch ein wenig besser abschneidet.
Und noch mal - Cyberpunk ohne Raytracing verliert sehr viel Atmosphäre, es ist ein massiver Unterschied und das empfehle ich keinem. Bei den restlichen Spielen? Zum Teufel damit, ausschalten weil kaum sichtbar und nutzlos. Nicht hier.
Das macht deine getätigte Aussage aber trotzdem nicht richtiger und auf Grund der aktuellen Situation bei der Lieferbarkeit, Preisen und dem Umstand das in Cyberpunk 2077 selbst schon 2080 Super RTX-Karten mit RT schwer tun, dürfte die Mehrheit der Spieler bei Cyberpunk wohl auf umfassenden Einsatz von RT im Moment noch verzichten, so das dieser Punkt sowieso argumentativ kein Gewicht hat und unter rein subjektive Argumentation fällt.
Und ja, ich weiß, Cyberpunk 2077 hat sehr gute Frametimings, so sind auch 40-50FPS average noch spielbar weil sie eben konstant sind. Meistens ebenfalls. Aber es ist nur spielbar - nicht gut, nicht hübsch, macht keinen Spaß.
Ah ja, danke das du anderen und mir scheinbar grundsätzlich absprechen möchtest das es trotzdem noch über weite Strecken als ausreichend hübsch empfunden werden kann (wie u.a. auch meine Screenshots zeigen) und Spaß macht, du musst es ja schließlich wissen und alle anderen Standpunkte diesbezüglich können selbstredend nur "objektiv" verkehrt sein...
Schöner geht schließlich immer, mehr FPS auch, auch bei Spielen wo die Grafikeinstellungen in den Einstellungen auf Oberkante Anschlag liegen und die FPS bei 60, heißt aber sicher nicht das es nur dann schön ist und Spaß machen muss...