Ich sags immer wieder, wir brauchen einen [IRONIE] [/IRONIE] Tag hier im Forum...
Oder soll ich nächstes mal noch mehr Smileys einbauen?
Oder soll ich nächstes mal noch mehr Smileys einbauen?
Es lohnt sich in meinen Augen ebenso wenig von Z490 auf Z590 aufzurüsten, zumal so manches Z490-Mainboard PCI-E 4.0 liefern kann.
Nicht einmal dann: https://www.pcgameshardware.de/SSD-Hardware-255552/News/Kaufberatung-SATA-PCI-Express-1369279/Ich konnte es zumindest in Bezug auf ein MSI Z490I Unify bestätigen. Allenfalls die NVMe-Nutzer, die unbedingt 4.0 wollen, werden wohl zum Z590 greifen müssen.
Für 4k brauchst gar nix kaufen da sitzt eine CPU aus 2017 genauso im GPU Limit wie eine aus 2021Intel hat die schnellste CPU in VGA Auflösung von 640x480 und 1024x720
Wer im 2021 angekommen ist, kauft eher eine CPU die in 4K Leistung hat !
Anhang anzeigen 1359218
ich spreche davon, dass die APUs keine so hohen Idle Verbrauchswerte hsben und eine der offiziellen Begründungen war, dass bei den anderen Chips das IF so viel frisst. Daher erübrigt sich auch jegliche Behauptung, dass es an PCIe 4 liegt, der Verlinkte Artikel zeigt nämlich einen Prozessor OHNE PCIe 4, also braucht man gar nicht mehr behaupten es läge an PCIe4, nicht wahr? Es war also schon mal falsch zu behaupten der Mehrverbrauch liegt an PCIe 4. Und als Beispiel warum es eher an was anderes loegthhabe ich bewusst 2 CPUs erwähnt die beide nicht PCIe4 haben. Ich hoffe ich hab mich jetzt verständlicher ausgedrücktWas ein schlechtes Argument gegenüber der Behauptung der Verbrauch komme von PCIe 4.0 ist. Das haben die APUs nämlich nicht mit der offiziellen Begründung Trommelwirbel PCIe 4.0 zieht zu viel Strom.
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...
Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.
Korrekt!Genau, denn du brauchst ein solches Notebook ja nicht, also sofort verbieten.
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.Kickt die 3090 aus dem Testsystem und nehmt den wahren King 6900XT ?
das sieht Igor komplett anders, wer hat nun recht?Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.
Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
Ich konnte es zumindest in Bezug auf ein MSI Z490I Unify bestätigen. Allenfalls die NVMe-Nutzer, die unbedingt 4.0 wollen, werden wohl zum Z590 greifen müssen.
auch ich kann mich hier den testern nicht anschließen und die 10. gen wirklich als AMD-konkurrenz sehen, einfach aufgrund des nach wie vor zu hohen stromverbrauchs bei nur 8c/16t.Im Gaming haben sie es (knapp) geschafft, zu AMD aufzuschließen und zu überholen. Nur zockt leider kaum jemand auf 720p...
Wenn man dann auch mal über den Tellerrand schaut, und auch Anwendungen betrachtet, dann hat es der 11900K mit seinen 8 Kernen auch gegen den eigenen Vorgänger mit dessen 10 Kernen noch sehr schwer... Mit AMDs 12-16 Kernern (selbst mit Zen 2) schafft er es dann erst Recht nicht mitzuhalten...
Von daher empfinde ich die 10. Core Gen derzeit sogar eher noch attraktiver, vor allem wenn man die Preise berücksichtigt (den 10850K gibt's für 380€). Der ist bei Games vllt etwas früher im CPU Limit, aber ansonsten eher flotter für deutlich weniger Kohle...
Wenn Intel die Architektur wie ursprünglich mal geplant in 10 nm und mit weiterhin 10 oder mehr Kernen geliefert hätte, das wäre wahrscheinlich ziemlich nett gewesen, so bleibt nur, auf Alder Lake warten, wie der sich gegen Zen 4 behauptet...