... und Wubziz mit 4.5 GHz was mal wieder total daneben ist
Was ist denn an 4.5GHz total daneben wenn ich fragen darf?^^
... und Wubziz mit 4.5 GHz was mal wieder total daneben ist
Danke für den Test, Dave! Gerade bei PCWelt geschaut, die testen jetzt auch 1080p. Es ist wirklich schade. Aber CB schlägt mit UHD eh dem Fass den Boden aus... "Komm, lass uns mal einen Grafikkartentest mit unterschiedlichen CPUs machen. Dumdidum.... "
Als eigentlichen "Gewinner" aus dem ganzen Vergleich finde ich fast den 3600 X (6C/12T) !
Gleichauf mit einem 9900K (8C/16T)
Für @4.5GHz sind 7900 Punkte einfach zu wenig .Was ist denn an 4.5GHz total daneben wenn ich fragen darf?^^
Wäre ein Schnellschuß das zu behaupten, vor allem muss die Anwendung (das Spiel) über die APCI-ID (API) eine Systemtopologieabfrage starten, die hardwarenah wahrscheinlich ohne Hardwareoptimierung überhaupt nicht regelgerecht stattfindet.Könnte das bei höherer Kernauslastung auch ein Limit beim Ringbus sein? Da machte Intel beim 9900k schon eine Grätsche und meinten mehr als 8 Kerne bei Takt so oder so sind schon grenzwertig. Dann wären die CPU absolut Zukunft untauglich was spielen bei hoher Anzahl und Kernauslastung angeht. Das ist schon auffällig.
Ganz genau. Der PCGH Test sieht verglichen mit allen anderen (inklusive Tech Tuber) schon merkwürdig aus.
Mein Fazit: Wie viel Taschengeld-Aufbesserung gab es denn PCGH?
QuelleWird Prime95 genutzt, um den maximalen dauerhaften Verbrauch mit und ohne Limits aufzuzeigen, schiebt sich der von PL1, PL2 und Tau befreite Intel Core i9-10900K mit über 310 Watt Package Power sogar an AMDs Threadripper vorbei, die mit 280 Watt spezifiziert sind.
720p Benchmarks braucht kein Mensch, weil im Alltag niemand mehr in 720p spielt und größtenteils dreht es sich auf dieser Plattform um Hardware+Spiele. Solche Test als reine Beweihräucherung gehen doch am eigenen Klientel vorbei.
Hab mich schon gefragt, wann der erste von der Aluhut Fraktion auftaucht .
Wieder Möglichkeiten liegen gelassen, Intel.
Es hätte noch deutlich besser aussehen können.
Und das mit den Temps und der Leistungsaufnahme in Spielen überrascht mich nicht, da es nicht viel anders aussieht, beim 9900k.
Ich rede da aber die ganze Zeit gegen Wände. "AMD-Wände" die immer vom glühenden 9900k reden. Und von "Atomkraftwerken", welche man benötigt, zum befeuern, allein für die CPU(und sie vergessen immer was GPUs im Highendbereich verbrauchen )
Hier mal 3 Stunden Wreckfest, eins meiner Lieblings-MP-Rennspiele:
Anhang anzeigen 1089728
Hat sicher Gill Bates seine Finger im Spiel.
Man müsste wissen, wie groß die FPS Schwankung in dem Test ist und dann müsste man einen Durchschnitt aus einer angemessenen Anzahl an Tests ermitteln.Schaut euch als Beispiel Shadow of the TombRaider an.
In 1080p ist der 10900K 18% schneller als der 3900X. Soweit alles gut.
In 4K ist dann der 3900X aber 10% schneller als der 10900K.
Kann mir das einer erklären?
Anhang anzeigen 1089725Anhang anzeigen 1089726
Mich würde wirklich mal interessieren, warum Intel so konservativ mit dem Speichertakt ist,Wieder Möglichkeiten liegen gelassen, Intel.
Doch gab es bislang, für all diejenigen, die einen CPU und GPU Test nicht nebeneinander legen können.Bin ich allerdings dankbar für, dass jemand diese zusätzlichen Tests anbietet, wie die CPU in HEUTIGEN Spielen JETZT nach Aufrüstung performen. Macht man ja im Heft der PCGH leider auch net
Bitte nicht...es geht ohnehin in jeden CPU Thread um seine CPU.Deine Vcore ist zu hoch. 1,36v bei Stock Taktrate sieht mir nach Standard OC Spannung vom Board/UEFI aus. Da geht weniger.
Wenn CPUs im GPU Limit getestet werden sollen, sollen dann GPUs im CPU Limit getestet werden?
Dann sollten alle CPUs aber auch mit einer 1660ti getestet werden. Ne 2080ti ist ja auch realitätsfremd. Dann auch schön drauf achten, dass der Ram immer voll ist.