Intel Core i7-9700K auf 5,5 GHz: Benchmark zum Achtkerner aufgetaucht

Ihr seid so verbohrt, dass ihr eine andere Sichtweise überhaupt nicht mehr wahrnehmen könnt.

Und wenn ihr meint, eure Methode sei "wissenschaftlich" korrekt, dann sage ich ne, die getesteten Szenen in 720p sind nicht repräsentativ. Ungültig!
 
Nur schade das man das CPU Limit mit JEDER Karte neu messen muss! Bringt nichts wenn ich es nur mit einer 1080Ti mache wenn eine Vega schon wieder ganz andere Ergebnisse liefert. Ich muss es mit jeder Karte bis runter zur RX550 machen.

Ich sage dazu nur 2990WX und 1080TI vs Vega 64! Wo am Ende die Vega die schnellere von beiden ist!

Also was sagt mir der scheiß jetzt? Richtig, gar nichts! Augenwischerei ist das und nichts anderes. Entweder Teste ich so, wie 90% der Leute nutzen oder ich lasse es sein!

Am Ende interessiert nur das, was es bei einem selber bringt!
 
Und wenn ihr meint, eure Methode sei "wissenschaftlich" korrekt, dann sage ich ne, die getesteten Szenen in 720p sind nicht repräsentativ. Ungültig!

und damit bist du genau bei dem bereits gebrachten beispiel: Du behauptest "1+1 ist Nicht 2". Du liegst einfach falsch.


Dann beweise mir diese simple Logik. Muss ja ganz einfach sein. Nimm einen Pentium und eine Geforce 1080ti und benche bei 720 und 4K bei verschiedenen Spielen. Laut deiner simplen Logik stimmen die Frameraten dann exakt überein oder?
Derartige Benches gibt es - und ja, die Framerate einer langsamen CPu die limitiert sind mit einer 1060 bei 4K die selbe wie mit einer 1080Ti bei 1080p.
YouTube
Und es gibt genügend andere Beispiele - und wurde jetzt auch schon von anderen sogar schon so einfach erklärt das man es nicht weiter vereinfachen kann. Wers nicht versteht der verstehst dann halt nicht - ändert an den Tatsachen nichts.
 
Zuletzt bearbeitet:
Weiss nicht ob diese Zerbröselungstaktik bei Intel wirklich Sinn macht. 2,4,6,8 Kerne mal mit mal ohne SMT, und das gerne noch mit Unterschieden innerhalb einer Produktklasse. Ganz ehrlich was soll das?
Schon das Ding mit den 2 unterschiedlichen 1151 Sockeln war ne geniale Taktik um zig weniger versierte Kunden vor Probleme zu stellen und diese konfuse Produktpolitik wird weiter fortgeführt.
weniger versierte Kunden kaufen in der Regel ganze Systeme. Die haben also keine Probleme. Und, dass man die produktlinien an den Bedarf anpasst ist nur sinnvoll.
Ein kleiner Nuc braucht halt nicht mehr als 2+2 Kerne.
Ich arbeite gerade aufm uralt-Sandy-Bridge Laptop i5 (2 Kerne und HT) der dank seiner 16 GB Ram und SSD absolut alles superflott macht was ich so brauche. Allerdings sehe ich für den Desktop (4 Kerne + HT) in den nächsten 3 Jahren mal die Tage gezählt, sofern es die Spiele und mein Setup (Monitor mit hoher Hz Anzahl oder VR Brille) verlangen. Bis dahin reicht er noch klar aus, die Frametimes sind bei 60hz verkraftbar.

Es wird dann (2020 oder 2021) aber nicht zwanghaft ein Intel, sondern der dann vorherrschende Leistungssieger. Das traue ich, falls AMD zulegen kann und Intel nicht, durchaus AMD zu und das wird dann belohnt.
Das Witzige an der Sache ist, dass diejenigen, welche anderen Unverständnis vorwerfen in der Sache, meistens selbst gar nicht so recht wissen, wo der Sinn eigentlich liegt. Der Hauptgrund für 720p Tests ist das Minimieren des kombinatorischen Aufwands für die Tester. Aber was interessiert mich als Leser eines Tests der Aufwand für die Tester? Die für den Leser entscheidende Erkenntnis kann auch ohne 720p gewonnen werden, nämlich die Antwort auf die Frage, welche CPU die eigene Grafikkarte in der gewünschten Auflösung mind. so gut mit Daten versorgen kann, dass eine Auslastung im GPU-Limit entsteht.

720p Tests birgen sogar eine Gefahr in sich. Laien schauen sich die Balken und denken, dass sie entsprechend die beste CPU kaufen. Im praktischen Alltag kann die CPU ihre Leistung aber gar nicht auf die Straße bringen, also hat man Geld verschwendet.
Zumindest ich kaufe mir die CPU nicht nach "reicht für heute aus" sondern "hat Reserven für die Zukunft". Und da stimmt es absolut in 720P zu testen, weil am ehesten bei mir eine GPU nachgerüstet wird, die in Falle einer potenten CPU auch noch ordentlich ausgelastet wird. Habe ich aber eine CPU die unter 720P gerade noch so die GPU füttern kann um auf 60 Fps zu kommen, ist ein GPU Upgrade und auch alles andere sinnlos.
Deshalb hat für mich ein 720P CPU Test meist sehr viel Wert. Dass sich der Testaufwand dadurch erheblich minimiert habe ich dabei bislang nicht bedacht und ist mir auch nicht klar, warum der Aufwand sich ändert, wenn der Tester sich auf eine andere Auflösung versteift. Soll er ruhig in 4K oder besser noch 8K testen, dann merkt der Tester auch eine uralt-CPU schafft in letzterer nur 10 fps und kommt zum Fazit "eigentlich sind alle CPUs am Markt gleic hschnell".
s000.gif



Mich interessiert schlichtweg nicht zu sehen, dass alle CPUs knapp beisammen sind, wenn sie ins GPU Bottleneck laufen. Mich interessiert, wie viele Reserven die gekaufte Komponente hat um nicht bei späteren Spielen mit mehr CPU Last oder bei einem GPU Upgrade plötzlich zum Bottleneck zu werden. Ich weiß nicht, warum es so schwer zu verstehen ist. Jeder weiß hoffentlich, dass einzelne 720P Tests dennoch nur ein Teil vom Gesamtbild sind, aber dieser Teil ist wesentlich weniger aussagekräftig, wenn ich im GPU (oder sonstigem) Limit hänge

Klugscheißer kann keiner leiden...das ist mir bewusst, das man bei höheren Auflösungen ins GPU Limit kommt und für nen CPU Bench unbrauchbar ist...deswegen theoretisch richtig...Praktisch spielt wohl fast niemand mehr in 720p, außer nun mit der 2080ti inkl. RT, damit da was brauchbares rauskommt.
Kann ja keiner ahnen, das manchen das denken so schwer fällt.
76.gif

Es geht nicht darum, ob dieses Setting wer benutzt, es ist halt ein Theoretischer Benchmark (aufgrund des reinen Fokus auf die CPU und diese allein als Bottleneck) in einer praxisnahen Umgebung
erklärs mir nochmal, weil offenbar fällt entweder dir oder mir das Denken gerade schwer.
Was bringen mir CPU Benchmarks @4K Auflösung?

Davon abgesehen wirst du auch mit der RT hohe Auflösungen erreichen, musst halt nur - wie so beliebt, drum wollen alle höhere Auflösungen statt schönerer Grafik - hässliche Spiele hochskalieren
Nur schade das man das CPU Limit mit JEDER Karte neu messen muss! Bringt nichts wenn ich es nur mit einer 1080Ti mache wenn eine Vega schon wieder ganz andere Ergebnisse liefert. Ich muss es mit jeder Karte bis runter zur RX550 machen.

Ich sage dazu nur 2990WX und 1080TI vs Vega 64! Wo am Ende die Vega die schnellere von beiden ist!

Also was sagt mir der scheiß jetzt? Richtig, gar nichts! Augenwischerei ist das und nichts anderes. Entweder Teste ich so, wie 90% der Leute nutzen oder ich lasse es sein!

Am Ende interessiert nur das, was es bei einem selber bringt!

Wenn man aber nur noch das testet, was 90% der Leute benutzen dann brauchen wir eigentlich kaum noch Tests: 80% der Leute benutzen Nvidia, über 80% der Leute benutzen Intel. Wozu noch was anderes testen und empfehlen? 80% der Leute haben noch FullHD Monitore und sogar drunter. Wozu neue Erkenntnisse suchen? Warum das Limit einer Komponente austesten, wenn man sie einfach mal von allen Seiten beschränkt auch testen könnte.
Warum nimmt man ein nacktes System? Einfach mal mit Antivir, Firewall, Antispyware, diverse andere Software befüllen und dann erst etwa SSD Benchmarks anstellen. Huch- ganz andere Ergebnisse plötzlich. Da regt sich auch nie wer auf?

Ich will das Limit der getesteten Komponente kennen nach einen Test, und nicht, dass es ständig auf andere Limits gestoßen ist.

Sonst steht am Ende jedes CPU Tests: naja eigentlich ist der 9800K genauso schnell wie unser alter FX8350. Das haben unsere 4K Tests ergeben und das ist auch Fakt, weil 4K Testen, das ist was die User wollen...
 
Zuletzt bearbeitet:
Abwarten, ob diese CPU überhaupt noch zukunftstauglich ist.

16PCI-E Lanes... 1X GPU 1X NVME SSD und damit war's das.
Reicht für die meisten...

Doch kaum will man nur etwas mehr:
-Unterstützt sie PCI-E 4.0?
-Mit NV-Link könnte jetzt Multi-GPU ohne Nachteile kommen (Mikrorukter - Kompatibilität - Kein gemeinsamer V-Ram (11GB+11GB=11GB)
Und für Ray Tracing in mehr als 1080p und mehr als 60FPS wird man das auch brauchen.
-Mehrere SSDs da Preise fallen

- Nicht vergessen: vielleicht noch eine billig AMD GPU einbauen für Freesync Kompatibilität trotz NVIDIA GPU
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Freesync-Nvidia-Trick-1263739/
 
Zuletzt bearbeitet:
PCIE 4 bekommt man auch nicht bei der Konkurrenz
Microruckler bei SLI werden weiterhin bestehen bleiben. Und SLI wird sowieso fürs rastern aussterben, kaum ein Spiel unterstützt es noch

Mehrere SSDs kann man nach wie vor an die 8 SATA Ports anhängen ;)
 
PCIE 4 bekommt man auch nicht bei der Konkurrenz
Microruckler bei SLI werden weiterhin bestehen bleiben. Und SLI wird sowieso fürs rastern aussterben, kaum ein Spiel unterstützt es noch

Mehrere SSDs kann man nach wie vor an die 8 SATA Ports anhängen ;)

-PCI-E 4 Soll ja mit Ryzen 3 kommen... gerüchteweise... Das ist dann der Konkurrent zum i9 9900K

-NV-Link hat ja mit traditionellem SLI nicht mehr viel gemeinsam. Da wird das Bild nicht Frameweise abwechselnd berechnet. Deswegen werden 11GB+11GB auch 22GB sein... gerüchteweise...

Die Hoffnung stirbt zuletzt...

Sata... Hängt am Ende auch nur an CPU PCI-E Ports...
 
Da die CPU verlötet ist, kann man sich das Köpfen sparen und dank der besseren Temperaturen wird mit Sicherheit ~5.1Ghz AllCore mit einer gesunden Spannung möglich sein. Eine bessere Gaming-CPU kann man sich meiner Meinung nach kaum vorstellen, da diese sich mit 8 physikalischen Kernen ohne HTT sehr gut takten lässt und trotzdem noch große Reserven im Multi-Core (auch ohne HTT) bietet. Die 5.5Ghz halte ich aber für übertrieben. Ich würde keine CPU bei der Spannung betreiben wollen. Dann lieber konservative 5.1Ghz bei geringerer Spannung. Da sollten dann immerhin auch ~235cb/1700cb bei rumkommen.
 
Da nVidia mit der 2080ti die 720p Ära einläutet (1080p bei 60 FPS sind Schei....) ist der i7 9700K die Perfekte CPU und diese ganzen 720p CPU Test ergeben endlichen einen realen Sinn.:ugly:

720p CPU Tests haben schon immer einen Sinn ergeben.

Aber sei unbesorgt, auch beim nächsten CPU Test werden wieder genug Leute ihre Unkenntnis mit Aussagen wie „720p ist doch gar nicht praxisnah“ unter Beweis stellen.

Theoretisch mag das Sinn ergeben, Praktisch eher nicht...meistens.

Wenn man praktisch wissen will, wie schnell CPU X ist, dann ergibt der Sinn in 720p sehr viel Sinn. Wenn man natürlich in einem CPU-Test nicht daran interessiert ist, wie schnell CPU X ist, sondern sehen will, was GPU Y im GPU Limit leisten, dann ergibt ein Sinn in 720p natürlich keinen Sinn.

Nur wozu dann noch eine CPU testen, dann tut es auch gleich der GPU Test.

Klugscheißer kann keiner leiden...das ist mir bewusst, das man bei höheren Auflösungen ins GPU Limit kommt und für nen CPU Bench unbrauchbar ist...deswegen theoretisch richtig...Praktisch spielt wohl fast niemand mehr in 720p, außer nun mit der 2080ti inkl. RT, damit da was brauchbares rauskommt.

Es geht auch nicht ums spielen, sondern darum die CPU zu testen.

Und irgendwann dann wundert sich der Spieler, warum seine Spiele so langsam sind. Ach huch, die CPU ist plötzlich nicht mehr schnell genug, um genug Bilder an die GPU zu liefern. Wie hätte man das nur herausfinden können?

In dem man die CPU richtig testet (sprich, nicht im GPU Limit).

Kann ja keiner ahnen, das manchen das denken so schwer fällt.:wall:

Ich liebe dein Gespür für Realsatire :lol:

Vielleicht wäre auch weniger Ideologie bei dir hilfreich. Es gibt gute Argumente für beide Seiten und das sollte man auch irgendwann akzeptieren.
Ich halte deine Erklärungen auch für sehr vereinfacht und stellenweise falsch. Die Welt ist nicht nur schwarz oder weiß.

Und das ist objektiv falsch.

Es gibt keine „guten“ Argumente für CPU Tests im GPU Limit. Es gibt einfach keine. Weil man im GPU Limit nicht mehr die CPU testet, sondern die GPU.

Was für einen Sinn hat der Test eines Produktes, indem nicht das Produkt getestet wird?

Ihr seid so verbohrt, dass ihr eine andere Sichtweise überhaupt nicht mehr wahrnehmen könnt. Und wenn ihr meint, eure Methode sei "wissenschaftlich" korrekt, dann sage ich ne, die getesteten Szenen in 720p sind nicht repräsentativ. Ungültig!

Zu sagen „1+1=3“ ist nunmal keine andere Sichtweise, sondern Unkenntnis. Das ist ja auch nichts schlimmes, niemand weiß alles.

Aber man sollte zumindest eingestehen, wenn man etwas nicht weiß und nicht jene verbal attackieren, die einen etwas beibringen wollen.

Nur schade das man das CPU Limit mit JEDER Karte neu messen muss! Bringt nichts wenn ich es nur mit einer 1080Ti mache wenn eine Vega schon wieder ganz andere Ergebnisse liefert. Ich muss es mit jeder Karte bis runter zur RX550 machen.

Ich sage dazu nur 2990WX und 1080TI vs Vega 64! Wo am Ende die Vega die schnellere von beiden ist!

Also was sagt mir der scheiß jetzt? Richtig, gar nichts! Augenwischerei ist das und nichts anderes. Entweder Teste ich so, wie 90% der Leute nutzen oder ich lasse es sein!

Am Ende interessiert nur das, was es bei einem selber bringt!

Das tut schon fast weh. Wenn man natürlich wissen will, was die GPU liefert, dann macht man natürlich einen GPU Test. Und oh Wunder, das hat PCGH bisher auch für jede Karte gemacht.

Nur was hat die Leistung der GPU im CPU Test verloren? Richtig, gar nichts.
 
Nur schade das man das CPU Limit mit JEDER Karte neu messen muss! Bringt nichts wenn ich es nur mit einer 1080Ti mache wenn eine Vega schon wieder ganz andere Ergebnisse liefert. Ich muss es mit jeder Karte bis runter zur RX550 machen.
Das ist tatsächlich so, allerdings nur in DX11 (welches wir hoffentlich irgendwann mal hinter uns lassen), wegen der Scheduling Geschichte. Bei Nvidias Treiber weiß man nie 100%ig, wie er sich mit dem Rest des Systems (CPU und Anwendung) verträgt, weil er alles selbst managed. Bei AMD liegt das CPU Limit einer Vega deutlich höher als das einer Polaris und dieses wiederum höher als das einer Hawaii, weil der Hardware Scheduler mit jeder Generation verbessert wurde.

Ich sage dazu nur 2990WX und 1080TI vs Vega 64! Wo am Ende die Vega die schnellere von beiden ist!
Wobei man das nicht überbewerten sollte, denn dies ist der absolute Worst Case, den der Nvidia Treiber hervorrufen kann. Und im Grund kam der auch mit Ansage, wenn man sich bewusst gemacht hat, dass Nvidia im Treiber seit Jahren auf eigene Faust Threads munter hin und her schiebt.

Also was sagt mir der scheiß jetzt? Richtig, gar nichts! Augenwischerei ist das und nichts anderes. Entweder Teste ich so, wie 90% der Leute nutzen oder ich lasse es sein!
Das sagt dir, dass DAUs nach wie vor so ihre Probleme mit PCs haben, weil die Backgrounds ein gewisses Maß an Hirnschmalz erfordern, aber dennoch gibt es Gesetzmäßigkeiten und Richtwerte.

Eine Sache jedenfalls ist kompletter Blödsinn: Eine CPU im GPU Limit zu testen! Das bringt nicht nur rein garkeine Erkenntnisse, es führt auch noch in die Irre, denn wir wissen heute, wie wichtig Frametimes sind und je mehr Luft eine CPU zum atmen hat, desto besser sind die Frametimes. Eine CPU, die in 4k bei 95% Last läuft, produziert in der Regel ein unsaubereres Spielgefühl als eine, die nur bei 70% Last läuft.

Am Ende interessiert nur das, was es bei einem selber bringt!
Tatsächlich bringen die CPU Tests @ WQHD nichts, während du aus einem kombinerten CPU Test @ 720p und einem GPU Test schon sehr viel ableiten kannst. Dann musst du nur noch einen Sinn für die aktuellen DX11 Eigenheiten der beiden Hersteller entwicklen und du hast alles was du brauchst.
 
Und wenn ihr meint, eure Methode sei "wissenschaftlich" korrekt, dann sage ich ne, die getesteten Szenen in 720p sind nicht repräsentativ. Ungültig!

Also ich bin auch dafür, es sollten nur noch CPU Tests in 4K (weil praxisnah & repräsentativ) und nicht mehr in 720p erstellt werden. Was soll das auch bringen, niemand spielt in 720p.

Sieht dann so aus: i9-9900K vs Ryzen 2700X beide 49fps bei Spiel X in 4K auf Ultra mit ner 2080Ti... Alles klar soweit.

Nächstes Jahr kommt dann die 3080Ti und der i9-9900K Nutzer hat plötzlich beim selben Spiel 81fps in 4K auf Ultra. Der 2700X Nutzer 51fps. Der wird sich dann wohl freuen seine (vermutlichen) 2000€ für die 3080Ti abgedrückt zu haben und dennoch die gleichen FPS wie vorher zu haben. Aber wie hätte man auch nur erahnen können das der Ryzen plötzlich zu langsam ist?

Für dieses Problem sollten sich die Tester mal was überlegen, etwas das einem verrät wie zukunftssicher die getestete CPU denn ist. Mir fällt nicht ein wie man das bewerkstelligen könnte außer... naja... :schief:

Um ehrlich zu sein, mich interessiert bei einem CPU Test nichts anderes als die FPS in 720p wenn es um Spiele geht. Denn wie soll ich denn sonst wissen ob die CPU noch Reserven für eine spätere GPU Generation hat oder jetzt bereits aus dem letzten Loch pfeift?

Ich habe jedenfalls große Augen gemacht als ich von der GTX680 damals auf die 780Ti gewechselt bin und in Saints Row 3 immer noch genau 72fps* hatte. Tja, i7-3770K@stock war zu lahm. Pustekuchen mit FPS Boost.

*nach dem flugzeug und beim starten in die open world und dem dazugehörigen kameraschwenk

EDIT: Die Zitate stammen aus dem Post unter diesem!

Auch bei 1080p landet man nicht automatisch im GPU-Limit.
Mit RTX On schon... :D

Kann man also nur in 720p und in 4K testen? Gibt es nur noch Extreme?
Sicher gibt es eine menge dazwischen doch ist 720p auch nicht die Untergrenze. Nur ist 320x200 vermutlich schwer zu testen, weswegen 720p einen vernünftigen Mittelweg darstellt. Alles darüber erzeugt in jedem Fall mehr GPU Last und die will ich bei einem CPU Test eben nicht haben.

720p-Tests zeigen eine Momentaufnahme und hat wenig Aussagekraft für die Zukunft. [...] Und das ["welche CPU noch Reserven für eine spätere GPU Generation hat"] kannst du aus 720p-Tests rauslesen?
Nun das kommt drauf an wie Du "Zukunft" definierst. Klar ist das nur eine Momentaufnahme aber wenn eine CPU in dieser Momentaufnahme mehr zu leisten vermag wie die derzeit schnellste GPU (in 1440p+ zb) und eine andere CPU es grade mal so schafft die GPU auszulasten dann kann ich sehr wohl davon ausgehen das eine neue GPU mir was bringen wird bei zumindest einer der beiden CPUs, nämlich bei der mit den mehr FPS in 720p.

Die Unterschiede zwischen den CPUs kann in 10 Jahren komplett anders aussehen.
Also in 10 Jahren nehme ich den 9900K nicht mal mehr geschenkt. :) 5 Jahre ist schon hart an meiner Schmerzgrenze muss ich sagen und für genau diesen Zeitrahmen muss ich eben planen. Da nehme ich keine CPU die schon bei Release mit "mühe" die damaligen GPUs befeuern konnte.

Bei der Diskussion 4 Kerner (zb. 7700K) vs 8 Kerner (zb. Ryzen 2700X) mag es noch stimmen das die Benchmarks in 10 Jahren komplett anders aussehen werden aber bei 9900K vs 2700X? Beide 8C/16T, da wird sich (vermutlich) an der Rangfolge nicht mehr viel ändern. Außer natürlich es kommen mehr und mehr sicherheitslücken (beim intel) zum vorschein die nach dem patchen die komplette mehrleistung aufressen ;)
@Topic

Der i9-9900K wird vermutlich äußerst interessant, grade auch für Spiele aber auch wenn intel äh "eine chinesischen Webseite" leakt das die CPUs wohl recht potent sind werde ich auf Ryzen 3000 warten. Wenn AMD den 9900K schlagen kann oder zumindest gleich auf ist wirds nach dem Athlon 64 X2 6400+ mal wieder eine AMD CPU bei mir werden, die Preise sind für die Sicherheitslücken und "nur Mainstream" für mich zu hoch.
 
Zuletzt bearbeitet:
Und das ist objektiv falsch.

Es gibt keine „guten“ Argumente für CPU Tests im GPU Limit. Es gibt einfach keine. Weil man im GPU Limit nicht mehr die CPU testet, sondern die GPU.

Wenn du mich schon zitierst, dann solltest du dich auf Aussagen von mir beziehen und nicht auf komplett andere Aussagen beziehen. Themaverfehlung! Außerdem passt statt deinem "objektiv" besser das Wort subjektiv.
Auch bei 1080p landet man nicht automatisch im GPU-Limit.

Also ich bin auch dafür, es sollten nur noch CPU Tests in 4K (weil praxisnah & repräsentativ) und nicht mehr in 720p erstellt werden. Was soll das auch bringen, niemand spielt in 720p.

Kann man also nur in 720p und in 4K testen? Gibt es nur noch Extreme?

Für dieses Problem sollten sich die Tester mal was überlegen, etwas das einem verrät wie zukunftssicher die getestete CPU denn ist. Mir fällt nicht ein wie man das bewerkstelligen könnte außer... naja... :schief:

720p-Tests zeigen eine Momentaufnahme und hat wenig Aussagekraft für die Zukunft.

Um ehrlich zu sein, mich interessiert bei einem CPU Test nichts anderes als die FPS in 720p wenn es um Spiele geht. Denn wie soll ich denn sonst wissen ob die CPU noch Reserve für eine spätere GPU Generation hat oder jetzt bereits aus dem letzten Loch pfeift?

Und das kannst du aus 720p-Tests rauslesen? Die Unterschiede zwischen den CPUs kann in 10 Jahren komplett anders aussehen. Ein Core i9-9900K hat vermutlich deutlich mehr Reserven als ein Core i7-7700K, obwohl der Unterschied bei den Benchmarks aktuell noch relativ gering ist. In 10 Jahren könnte der Unterschied doppelt so groß sein.
 
Zuletzt bearbeitet:
Wenn du mich schon zitierst, dann solltest du dich auf Aussagen von mir beziehen und nicht auf komplett andere Aussagen beziehen. Themaverfehlung!

Bitte kläre mich auf, wo habe ich dich falsch zitiert.

Außerdem passt statt deinem "objektiv" besser das Wort subjektiv.

Tatsächlich nicht. CPU Tests im GPU Limit sind objektiv falsch.

Kann man also nur in 720p und in 4K testen? Gibt es nur noch Extreme?

Ein CPU Test in 720p ist nunmal kein „extrem“, sondern ein vernünftiger Test.

Ein CPU Test in 4k ist überflüssig, weil im GPU Limit.

Hier mal ein Beispiel:

Spielen in Ultra HD/4K: CPUs und GPUs im Test (Seite 2) - ComputerBase

Alle CPUs leisten nahezu das gleiche. Wozu dann noch einen Test, scheinbar ist es ja in 4K egal, welche CPU man nimmt?

Und 2 GPU Generationen später wundert man sich dann, dass die vermeintliche gleichschnelle CPU doch nicht gleichschnell ist.

Wie hätte man das bloß herausfinden können? Wenn es doch bloß eine Möglichkeit gäben würde, CPUs zu testen und dabei den Einfluss der GPU möglichst gering zu halten.

Hmmm…
 
Zurück