Weiss nicht ob diese Zerbröselungstaktik bei Intel wirklich Sinn macht. 2,4,6,8 Kerne mal mit mal ohne SMT, und das gerne noch mit Unterschieden innerhalb einer Produktklasse. Ganz ehrlich was soll das?
Schon das Ding mit den 2 unterschiedlichen 1151 Sockeln war ne geniale Taktik um zig weniger versierte Kunden vor Probleme zu stellen und diese konfuse Produktpolitik wird weiter fortgeführt.
weniger versierte Kunden kaufen in der Regel ganze Systeme. Die haben also keine Probleme. Und, dass man die produktlinien an den Bedarf anpasst ist nur sinnvoll.
Ein kleiner Nuc braucht halt nicht mehr als 2+2 Kerne.
Ich arbeite gerade aufm uralt-Sandy-Bridge Laptop i5 (2 Kerne und HT) der dank seiner 16 GB Ram und SSD absolut alles superflott macht was ich so brauche. Allerdings sehe ich für den Desktop (4 Kerne + HT) in den nächsten 3 Jahren mal die Tage gezählt, sofern es die Spiele und mein Setup (Monitor mit hoher Hz Anzahl oder VR Brille) verlangen. Bis dahin reicht er noch klar aus, die Frametimes sind bei 60hz verkraftbar.
Es wird dann (2020 oder 2021) aber nicht zwanghaft ein Intel, sondern der dann vorherrschende Leistungssieger. Das traue ich, falls AMD zulegen kann und Intel nicht, durchaus AMD zu und das wird dann belohnt.
Das Witzige an der Sache ist, dass diejenigen, welche anderen Unverständnis vorwerfen in der Sache, meistens selbst gar nicht so recht wissen, wo der Sinn eigentlich liegt. Der Hauptgrund für 720p Tests ist das Minimieren des kombinatorischen Aufwands für die Tester. Aber was interessiert mich als Leser eines Tests der Aufwand für die Tester? Die für den Leser entscheidende Erkenntnis kann auch ohne 720p gewonnen werden, nämlich die Antwort auf die Frage, welche CPU die eigene Grafikkarte in der gewünschten Auflösung mind. so gut mit Daten versorgen kann, dass eine Auslastung im GPU-Limit entsteht.
720p Tests birgen sogar eine Gefahr in sich. Laien schauen sich die Balken und denken, dass sie entsprechend die beste CPU kaufen. Im praktischen Alltag kann die CPU ihre Leistung aber gar nicht auf die Straße bringen, also hat man Geld verschwendet.
Zumindest ich kaufe mir die CPU nicht nach "reicht für heute aus" sondern "hat Reserven für die Zukunft". Und da stimmt es absolut in 720P zu testen, weil am ehesten bei mir eine GPU nachgerüstet wird, die in Falle einer potenten CPU auch noch ordentlich ausgelastet wird. Habe ich aber eine CPU die unter 720P gerade noch so die GPU füttern kann um auf 60 Fps zu kommen, ist ein GPU Upgrade und auch alles andere sinnlos.
Deshalb hat für mich ein 720P CPU Test meist sehr viel Wert. Dass sich der Testaufwand dadurch erheblich minimiert habe ich dabei bislang nicht bedacht und ist mir auch nicht klar, warum der Aufwand sich ändert, wenn der Tester sich auf eine andere Auflösung versteift. Soll er ruhig in 4K oder besser noch 8K testen, dann merkt der Tester auch eine uralt-CPU schafft in letzterer nur 10 fps und kommt zum Fazit "eigentlich sind alle CPUs am Markt gleic hschnell".
Mich interessiert schlichtweg nicht zu sehen, dass alle CPUs knapp beisammen sind, wenn sie ins GPU Bottleneck laufen. Mich interessiert, wie viele Reserven die gekaufte Komponente hat um nicht bei späteren Spielen mit mehr CPU Last oder bei einem GPU Upgrade plötzlich zum Bottleneck zu werden. Ich weiß nicht, warum es so schwer zu verstehen ist. Jeder weiß hoffentlich, dass einzelne 720P Tests dennoch nur ein Teil vom Gesamtbild sind, aber dieser Teil ist wesentlich weniger aussagekräftig, wenn ich im GPU (oder sonstigem) Limit hänge
Klugscheißer kann keiner leiden...das ist mir bewusst, das man bei höheren Auflösungen ins GPU Limit kommt und für nen CPU Bench unbrauchbar ist...deswegen theoretisch richtig...Praktisch spielt wohl fast niemand mehr in 720p, außer nun mit der 2080ti inkl. RT, damit da was brauchbares rauskommt.
Kann ja keiner ahnen, das manchen das denken so schwer fällt.
Es geht nicht darum, ob dieses Setting wer benutzt, es ist halt ein Theoretischer Benchmark (aufgrund des reinen Fokus auf die CPU und diese allein als Bottleneck) in einer praxisnahen Umgebung
erklärs mir nochmal, weil offenbar fällt entweder dir oder mir das Denken gerade schwer.
Was bringen mir CPU Benchmarks @4K Auflösung?
Davon abgesehen wirst du auch mit der RT hohe Auflösungen erreichen, musst halt nur - wie so beliebt, drum wollen alle höhere Auflösungen statt schönerer Grafik - hässliche Spiele hochskalieren
Nur schade das man das CPU Limit mit JEDER Karte neu messen muss! Bringt nichts wenn ich es nur mit einer 1080Ti mache wenn eine Vega schon wieder ganz andere Ergebnisse liefert. Ich muss es mit jeder Karte bis runter zur RX550 machen.
Ich sage dazu nur 2990WX und 1080TI vs Vega 64! Wo am Ende die Vega die schnellere von beiden ist!
Also was sagt mir der scheiß jetzt? Richtig, gar nichts! Augenwischerei ist das und nichts anderes. Entweder Teste ich so, wie 90% der Leute nutzen oder ich lasse es sein!
Am Ende interessiert nur das, was es bei einem selber bringt!
Wenn man aber nur noch das testet, was 90% der Leute benutzen dann brauchen wir eigentlich kaum noch Tests: 80% der Leute benutzen Nvidia, über 80% der Leute benutzen Intel. Wozu noch was anderes testen und empfehlen? 80% der Leute haben noch FullHD Monitore und sogar drunter. Wozu neue Erkenntnisse suchen? Warum das Limit einer Komponente austesten, wenn man sie einfach mal von allen Seiten beschränkt auch testen könnte.
Warum nimmt man ein nacktes System? Einfach mal mit Antivir, Firewall, Antispyware, diverse andere Software befüllen und dann erst etwa SSD Benchmarks anstellen. Huch- ganz andere Ergebnisse plötzlich. Da regt sich auch nie wer auf?
Ich will das Limit der getesteten Komponente kennen nach einen Test, und nicht, dass es ständig auf andere Limits gestoßen ist.
Sonst steht am Ende jedes CPU Tests: naja eigentlich ist der 9800K genauso schnell wie unser alter FX8350. Das haben unsere 4K Tests ergeben und das ist auch Fakt, weil 4K Testen, das ist was die User wollen...