Star Wars Battlefront 2 in 4K. Von GTX 1070 zu GTX2080, GTX 2080 Super oder GTX 2080ti oder warten?

Als Pro würde ich mich nicht bezeichnen. Bin auch in keinem Clan oder so.

Hm NT ist also grenzwertig. Macht die Entscheidung auch nicht leichter.
Mal auf die Entscheidung zum Stipendium warten.

Danke an alle die sich eingebracht haben :)
 
Hm NT ist also grenzwertig. Macht die Entscheidung auch nicht leichter.
Mal auf die Entscheidung zum Stipendium warten.
Solang du CPU und (geplante GPU/die RTX 2080 Ti) @stock betreibst, seh ich mit deinem Netzteil kein Problem. Anders könnte sich die Sache entwickeln, wenn du vor allem der Graka (Powerlimit/Spannung nach oben) genug Saft zur Verfügung stellst...

Gruß
 
Nee alles @ Stock. CPU-oc ist aus Gamingsicht eh nutzlos und die Aio dazu überdem nicht geeignet. Die 2080ti schrotten riskiere ich bei dem Preis sicher nicht. Sollte ich sie leihen statt kaufen schon 2 mal nicht.

Achja, Leihen fällt bis zum 11. Oktober eh flach da niemand ins Ausland verleiht (Praktikum Luxemburg)
 
eine CPU limitiert sehr oft weit vor 100% Auslastung.
Das mit den 100% ist etwa 2005 gestorben. Heute hat man meistens mehr Kerne in seinem Rechner als die Software nutzen kann.
Das ist kein Windows-Automatismus, sondern der Programmierer muss die Leistung bringen das seine Software viele Kerne benutzt.
Macht er das nicht hängen ein paar Kerne im Idle rum. Und schon gibts keine 100% Auslastung obwohl die CPU limitiert.
CPU-Limit sieht man an der Graka besser.
Graka voll ausgelastet: CPU schnell genug um die Graka voll auszulasten (logisch).
Umkehrschluss: Graka nicht voll ausgelastet = CPU nicht schnell genug um die Graka auszulasten (CPU-Limit).
 
Also wann immer die GPU zu 100% ausgelastet ist, so kann davon ausgegangenen werden, dass die CPU nicht limitiert, korrekt?
Wäre aber gut wenn zb. die PCGH das dann auch so darstellen würde.

Schaut man zb. auf den aktuellen CPU-Leistungsindex, so sagen synthetische Benchmarks und solche für Anwendungen eh nichts in Bezug auf Spiele aus und jene Benchmarks die in Spielen durchgeführt werden werden in 720p o.ä. durchgeführt um überhaupt eine Differenz messen zu können.

Alle 3 Messarten tragen aber nichts dazu bei, herauszufinden welche CPU ich brauch um mit GPU XY nicht limitiert zu werden.
Das ist zumindest mein Eindruck. Ausgehend von diesen Daten könnte ich jetzt nicht sagen ob ein i7-6700K eine RTX 2080ti limitiert oder nicht :huh:
Dabei trägt das Magazin das "Games" im Titel...?

Dachte eigentlich ich könnte abgesehen von der GPU das System so noch bis 2025 behalten da sich in Punkto CPU Anforderungen einfach mal fast gar nix tut. Immerhin hat das Ding damals 400 Euro gekostet oder so.
Und die Fortschritte seitdem sind doch fast nur auf Ebene der Kerne (6,8,12...) erfolgt und da immer noch kaum Spiele mehr als 4 Kerne nutzen dürfte es doch kaum viel an Mehrwert bieten (Anders natürlich im Bereich von Anwendungen, das ist klar).
 
Also wann immer die GPU zu 100% ausgelastet ist, so kann davon ausgegangenen werden, dass die CPU nicht limitiert, korrekt?

Genau so isses.

Das Problem dabei ist: Man bekommt es nicht runtergebrochen auf einen gemeinsamen Nenner.
Schaut man sich z.b. nur Battlefront an ist das Ergebnis ein ganz anderes als wenn man sich z.b. Stellaris anschaut.

Meint: Während eine CPU in einem Games die Graka limitiert, macht sie das in einem anderen nicht.
Und wenn man dann noch überlegt wie viele Regler man im Game hat, wird das ganze ein Ding der Unmöglichkeit.

Denn im Grunde genommen hat man vieles selbst in der Hand.
gta5_2017_06_22_17_50lyuan.jpg gta5_2017_06_22_17_54p2up5.jpg
 
Der 6700k wird die 2080Ti in zu niedrigen Auflösungen und Settings auf jeden Fall limitieren. Das ist je nach Spiel wenig schlimm bis irrelevant. Nimmst Du Counterstrike wirst Du auch in UHD mit einer 2080Ti im CPU-Limit landen, die Frames sind aber trotzdem sehr hoch und das Spiel gut spielbar. Nimmst Du hingegen Assassins Creed Odyssey kann es sein, dass die GPU selbst in UHD limitiert wird, weil die CPU an einigen Stellen keine 60 Fps schafft, zumindest @stock, das Spiel wird dadurch ein wenig ruckelig. In den meisten Games wird der 6700er noch genug Fps liefern, aber in Zukunft wird es immer öfters der Fall sein, dass er nicht genug Rechenleistung besitzt.

Dachte eigentlich ich könnte abgesehen von der GPU das System so noch bis 2025 behalten da sich in Punkto CPU Anforderungen einfach mal fast gar nix tut.
Immerhin hat das Ding damals 400 Euro gekostet oder so.

Wenn AMD nicht so viel Rechenleistung für kleines Geld auf den Markt geworfen hätte wäre es wohl auch so, aber Stand aktuell gebe ich dem i7 6700(k)/7700(k) noch knapp 2 Jahre bis er für viele neue Games in die Tonne kann.
 
Dachte eigentlich ich könnte abgesehen von der GPU das System so noch bis 2025 behalten da sich in Punkto CPU Anforderungen einfach mal fast gar nix tut. Immerhin hat das Ding damals 400 Euro gekostet oder so.
Und die Fortschritte seitdem sind doch fast nur auf Ebene der Kerne (6,8,12...) erfolgt und da immer noch kaum Spiele mehr als 4 Kerne nutzen dürfte es doch kaum viel an Mehrwert bieten (Anders natürlich im Bereich von Anwendungen, das ist klar).
Kannst du so nicht sagen, da vor allem neuere Titel wie die Battlefield-Reihe teils deutlich von CPU`s mit mehr Kernen/Threads wie dein i7-6700k profitieren. Wiegesagt, es hängt auch immer davon ab, was du spielst, welche Auflösung du nutzt und welche Anforderungen du an die Bildquali und die Höhe der Fps stellst.

Ich bin mit meinem System auch schon längst nicht mehr auf der Höhe der Zeit (obwohl ich einige kenne, die froh wären meinen Rechenknecht zu besitzen) allerdings bin ich auch mit um die 60 Fps in WQHD und hohen bis sehr hohen Einstellungen (ultra frisst Performance zum Frühstück, sieht aber nicht viel besser aus/den Thread dazu von Ion kennste ja, oder) zufrieden;)

Gruß
 
Zurück