Intel Coffee Lake: Taktraten von drei Modellen geleaked

Deshalb testet man ja auch immer mit dem Topmodell von GPU ;) Somit hast du schon deine maximal erreichbaren FPS..

Und der nächste GPU Treiber macht das GPU Topmodell schneller, jemand spielt nicht mit maximalen Settings die quasi fast immer nur die GPU belasten.
Jemand hat ein SLI System oder kauft sich die nächstbessere GPU und dann ist der Test für die Tonne.

Und was nützt dir die Info dass Prozessor X im praxisfernem Bench Leistung Y erreicht, wenn er in den Spielen die du spielst, in deiner Auflösung kein Unterschied zwischen Model A und B überbleibt?

Weil du jederzeit die Leistung Y fahren kannst, wenn du eine neue GPU kaufst oder lediglich die Grafiklast reduzierst.
Zumal es im Netz hunderte Tester gibt die nicht wissen wie man vernünftig testet und sogar am Ende Leistungsangaben zu Prozessoren machen, wenn weit über die Hälfte der Tests nur immerwieder die Grafikkarte getestet wird und so zur CPU keine Aussage möglich ist.

Wenn man aufgrund solcher Ergebnisse seine Entscheidung fest macht, dann muss ich schon die Sinnhaftigkeit solcher Tests in Frage stellen.

Dann kaufst du halt für dein hart erspartes Geld den falschen Prozessor.
Kannst dich mit Threshold zusammentun.:klatsch:
 
Deshalb testet man ja auch immer mit dem Topmodell von GPU ;) Somit hast du schon deine maximal erreichbaren FPS. Und was nützt dir die Info dass Prozessor X im praxisfernem Bench Leistung Y erreicht, wenn er in den Spielen die du spielst, in deiner Auflösung kein Unterschied zwischen Model A und B überbleibt? Wenn man aufgrund solcher Ergebnisse seine Entscheidung fest macht, dann muss ich schon die Sinnhaftigkeit solcher Tests in Frage stellen.
Ich sehe das vereinfacht so, als Leser interessiert es mich soviel "nützliche" Information wie möglich zu bekommen und als Tester, soviel "nützliche" Information wie möglich zu liefern, die durch die zur Verfügung stehende Arbeitszeit begrenzt wird.
Und ich sehe 720p benches als das beste Einschätzungsmittel an.

Denn mit 720p benches kann jeder etwas extrahieren, nämlich die CPU-Leistung.
Egal ob ich in 4K spiele, auf 60-120 Hz abziele oder VR-Games ausprobiere, ich kann das Leistungsniveau bei den Spielen anschauen und daraus Schlüsse für mein Nutzverhalten ziehen.
Alle CPUs erreichen unter 720p mehr als 60 FPS in den Spielen die mich interessieren? Super ich spiele in 4K, dann passt jede CPU dort.
Ich spiele VR-Spiele mit 90 Hz und mir ist wichtig das in XYZ das Target auch erreicht wird, dann weiß ich wo die CPUs stehen, mit höheren Auflösungen und Settings kommen vielleicht alle CPUs wegen einem GPU-Limit auf 70 FPS, dass nützt mir dann nichts.
Mit 720p Benches weiß ich aber, welche CPUs Probleme mit dem 90 FPS Target haben und welche mehr schaffen und darauf basierend kann ich dann eine stärkere GPU kaufen, wo ich die CPU als Problem schon ausschließen kann.
 
Was ist wenn du dir in 2 Jahren eine neue GPU kaufst die 60-100% mehr leistet als deine Jetzige?
Gerade wenn man einen Monitor mit 120/144Hz hat.
Gibt doch einge Games wo man in das CPU Limit läuft.
Will man dann nicht wissen wenn die CPU nur 65 statt 80fps schafft in dieses Situationen.

Zudem können doch die Anforderungen an die CPU in künftigen Games auch wieder steigen.
Natürlich muss man dann auch wieder die in immer mehr Games wichtigen Mehrkernskalierung berücksichtigen.

Es gibt eben zich Faktoren warum man wissen will was eine Komponente einzeln im Stande ist zu leisten. Egal ob nur Games, Arbeiten oder Spiele plus Anwendungen gleichzeitig.

Wüsste daher nicht warum jetzt CPU Test ohne GPU Limit sinnlos sind. Außer man wechselt die CPU jedes Mal mit der GPU mit.
Ich würde eher auf 5K oder 8K gehen als auf 120 Hz und gekauft wird erst wenns unter 40 fps geht und nicht zu teuer
 
Zuletzt bearbeitet:
99% der Leute machen das so.

Nein, das machen nur dumme/uninformierte Menschen so, andere eruieren wieso das System nicht richtig läuft und wägen ab ob ein CPU oder ein GPU Update des Systems sinniger ist.
Und kaufen unter anderem deshalb die PCGH, weil dort diese Tests drinn sind.:rollen:
Du kannst das natürlich anders machen und dir selbst schaden.
Follower, das hat mich wirklich zum Schmunzeln gebracht.:fresse:

Ich würde ehr auf 5K oder 8K gehen als auf 120 Hz und gekauft wird erst wenns unter 40 fps geht und nciht zu teuer

Mit 4 Titan Xp könnte auch ein Tripple Setup aus 3 5K Monitoren drinn sein, wahlweise dann mit 30 Hertz Schirmen, damit bei der CPU Einsparungen vorgenommen werden können.
Wahlweise ein Duron oder Sempron.
 
Nein, das machen nur dumme/uninformierte Menschen so, andere eruieren wieso das System nicht richtig läuft und wägen ab ob ein CPU oder ein GPU Update des Systems sinniger ist.

Ich arbeite seit knapp 30 Jahen in der Branche. Glaube mir, 99% der Leute machen das so. ;)
Die fragen nicht nach, die verstehen auch nicht, die kannst du auch nicht aufklären und die nehmen lieber ein 650 Watt billig Netzteil als ein 450 Watt hochwertiges Netzteil.
So ist das eben. :ka:
 
Ihr könnt euch auch in Zukunft die schönen 720p Balken anschauen und euch drüber freuen wenn ihr den längsten Balken dort habt. In der Realität reicht halt häufig trotzdem eine Mittelkasse CPU um Highend GPUs auch noch 2-3 Generationen später zu befeuern.
 
Ich arbeite seit knapp 30 Jahen in der Branche. Glaube mir, 99% der Leute machen das so. ;)

Und weil die Masse etwas tut, dann muss man dem nachlaufen?
Für Follower muss man das wohl machen, ja. Aber ich brauche sowas nicht, ich lehne dankend ab.

Die fragen nicht nach, die verstehen auch nicht, die kannst du auch nicht aufklären und die nehmen lieber ein 650 Watt billig Netzteil als ein 450 Watt hochwertiges Netzteil.

Sprichst du grade über dich, die anstatt eines notwendigen CPU Upgrades lieber nochmal eine neue GPU kaufen?


Na dann haben Computerforen ja doch noch einen Sinn.

Ihr könnt euch auch in Zukunft die schönen 720p Balken anschauen und euch drüber freuen wenn ihr den längsten Balken dort habt. In der Realität reicht halt häufig trotzdem eine Mittelkasse CPU um Highend GPUs auch noch 2-3 Generationen später zu befeuern.

Der Standardsatz von HISN, dass das von deiner Software und deinem Nutzungsverhalten abhängig ist, kommt da wieder zum tragen.
Seit 10 Jahren tourt er damit durch die Foren und noch immer hat es nichts gebracht. Es gibt halt auch noch Idealisten.:ugly:
 
Könnten sich die "99 Prozent" der Leute, die keine Ahnung von Hardware haben, PCGH nicht lesen (leider :-() und "Coffee Lake" für einen Unfall bei Starbucks halten, bitte außerhalb von Threads zu kommenden Intel-Prozessoren austoben? :-)


Unmittelbar vor HD wurde übrigens in 640 × 480 getestet. EGA-Auflösung unterstütze da kaum noch ein Spiel.
 
Nachdem wie hier argumentiert wird anscheinend ja. Angeblich spätestens beim nächsten GPU Wechsel wird eine CPU die unter 720p nicht auf höchsten Level performt die GPU massiv ausbremsen.
Die Argumente zielten doch nur darauf ab den Umstand und mögliche Probleme deutlich zu machen.
Natürlich muss man alles in eine gesunde Relation setzen.

Mit 720p Werten hat eben jeder Leser die "Max-Leistung" von CPUs vor den Augen und kann alles Wichtige aus den Daten interpolieren.
Mit 1080/1440p Werten eben nicht, solche sind ganz nett als praktischer Richtwert, aber eig. sollte man es als Nutzer auch schaffen von 720p Werten darauf zu kommen, welche CPU-Leistung für 1080/1440p ausreichend erscheint.
 
Das einzige was ich an CPU-Tests noch hinzufügen würde ist CSGO. 720p oder 1080p ist da auch voll egal, es wird sowieso in 200+ fps Szenarien gehen. Aber gerade CSGO ist ein Spiel wo sich viele User FPS jenseits von gut und böse wünschen für den minimalsten Input-lag möglich.
 
Könnten sich die "99 Prozent" der Leute, die keine Ahnung von Hardware haben, PCGH nicht lesen (leider :-() und "Coffee Lake" für einen Unfall bei Starbucks halten, bitte außerhalb von Threads zu kommenden Intel-Prozessoren austoben? :-).
Nope. :D
Was zu einem der größten Irrtümer der Wissenschaft führt: Früher dachten sie ja, dass die Erde eine Scheibe ist und irgendwann ist dann einem zufällig aufgefallen, dass sie doch weitestgehend rund ist und um die Sonne kreist. Dauerte lange, bis sich das durchsetzte. Ungefähr so was das mit dem Internet: Da dachten, sie, dass wurde für Pornos gemacht. Klingt plausibel, ist es aber nicht. :ugly:
 
Für dich und alle anderen die CPU-Tests immer noch nicht verstanden haben:

- Sagen wir eine CPU1 schafft aktuell 70FPS - die Auflösung ist der CPU dabei egal.
- Sagen wir eine CPU2 schafft aktuell 100FPS.
- Sagen wir weiter eine GPU1 schafft aktuell unter WQHD 60FPS.
Wie viele FPS sieht man jeweils?
Antwort:
60FPS für CPU1+GPU1
60FPS für CPU2+GPU1
In beiden Fällen limitiert die Grafikkarte.

Nun tauschen wir die Grafikkarte gegen ein neueres Modell.
Diese hat nun 50% mehr Leistung als das vorherige Modell.
CPU1 liefert immer noch 70FPS
CPU2 liefert immer noch 100FPS.
GPU2 liefert nun 90FPS.

Was sieht man nun:
CPU1+GPU2: 70FPS. Leistungssteigerung: 16%
CPU2+GPU2: 90FPS. Leistungssteigerung: 50%

Nun ist im Fall 1 die CPU das Limit.
Während im Fall 2 immer noch die GPU das Limit darstellt.

Und deshalb testet man CPU's ohne GPU-Last.

Allerdings sind (teils veraltete) Spiele mMn nicht gerade sinnvoll als Gradmesser für CPU-Leistung. Vor allem nicht, wenn es eine CPU bei Veröffentlichung schon gab und die andere nicht.
Da hätten wir mal Unterschiede bedingt durch die Engine (Unterstützte Kernanzahl, Befehlssatz, etc.). Als nächstes hätten wir den Grafiktreiber der mitspielt. Ryzen performte mit AMD Karten ja erheblich besser als mit Nvidia Karten im Vergleich zu Intel. Im schlimmsten Fall wurde der Intel-Compiler verwendet.

Davon eine Zukunftssicherheit ableiten zu wollen ist Kaffeesatzleserei. Man kann maximal die Rohleistung abschätzen, und das auch eher mit Anwendungen als mit Spielen. Danach ist man primär von der Softwareunterstützung abhängig
 
eig. sollte man es als Nutzer auch schaffen von 720p Werten darauf zu kommen, welche CPU-Leistung für 1080/1440p ausreichend erscheint.

Die meisten landen dann aber dummerweise bei "unter einem i7 ist alles unbrauchbar weil in 720p leistet der i7 mehr für mehr Geld" :ugly:
Das in 1080p+ die Mehrleistung verpufft interessiert dann nicht und das wenn die eine auch die andere CPU keine brauchbaren Bilder mehr liefert wird auch ignoriert :D

Ich freue mich trotzdem auf die 720p Benchmarks bin gespannt wie viel mehr der Intel für wie viel mehr Geld liefert gegenüber dem Ryzen 6 Kerner.
 
.... und "Coffee Lake" für einen Unfall bei Starbucks halten...

Hahaha, danke für diesen herzhaften Lacher :D


Mit 720p Werten hat eben jeder Leser die "Max-Leistung" von CPUs vor den Augen und kann alles Wichtige aus den Daten interpolieren.
Mit 1080/1440p Werten eben nicht, solche sind ganz nett als praktischer Richtwert, aber eig. sollte man es als Nutzer auch schaffen von 720p Werten darauf zu kommen, welche CPU-Leistung für 1080/1440p ausreichend erscheint.
Genau das! Ergänzend dazu nochmal der Hinweis, sich von den Bezeichnungen der Auflösungen zu lösen. 720p ist aktuell einfach nur ein Synonym für CPU Limit. Ob nun ein CPU oder GPU Limit in der Praxis vorliegt, ist eine Kombination aus CPU, GPU, Software und Settings.

Dazu kommt, wenn wirklich praxisrelevante Tests im GPU Limit gemacht werden sollen, werden das ganz schön viele Einzeltests, da die Praxis auf Grund vieler Hardwarekombinationen (und auch Einstellungspräferenzen) für jeden anders aussieht. Denkt mal drüber nach ;)
 
Allerdings sind (teils veraltete) Spiele mMn nicht gerade sinnvoll als Gradmesser für CPU-Leistung. Vor allem nicht, wenn es eine CPU bei Veröffentlichung schon gab und die andere nicht.
Warum soll das ein Problem sein?
Man testet doch auch Grafikkarten so. Und da ist es völlig normal, dass man alte GPU's gegen neue GPU's stellt.
Wieso ist es dort in Ordnung zu sagen eine R9 390 hat etwas weniger Leistung als eine RX 480?
Aber es ist nicht in Ordnung zu sagen ein i5 2400 hat etwas weniger Leistung als ein Pentium G4560?
Wo ist der Unterschied?

Da hätten wir mal Unterschiede bedingt durch die Engine (Unterstützte Kernanzahl, Befehlssatz, etc.). Als nächstes hätten wir den Grafiktreiber der mitspielt. Ryzen performte mit AMD Karten ja erheblich besser als mit Nvidia Karten im Vergleich zu Intel. Im schlimmsten Fall wurde der Intel-Compiler verwendet.
JA GENAU DESHALB!!!!
Deswegen hat ja CPU1 Leistung X und CPU2 hat Leistung Y.
Das ist doch genau das was man mit diesen Tests herauszufinden versucht.

Nochmal.
Bei Grafikkarten wird auch zwischen DX9,11,12 Mantel und Vulcan unterschieden. Es wird der Grafiktreiber genannt, und vieles mehr.
Wieso ist das dort vertretbar und sogar anerkannt - herrgott manche führen deshalb wahre Kreuzzüge welche API die "beste" ist.
Aber wenn man die Mehrleistung einer CPU auf einen Befehlssatz zurückführen kann wäre das auf einmal falsch oder unprofessionell?
Warum?

Du willst ein Beispiel?
Gerne:
Lightroom 1000Raw Datein in jpg umwandeln.
i7 2600k: fast 48min
i7 7700k: ca. 33,5min.
Warum?
Lightroom benutzt AVX. Und konnte der 2600k schon AVX? Nein.
Der 7700k aber kann es.
Daher rührt dieser große Unterschied. Ganz simpel.

Was ist jetzt daran falsch es auch so zu benennen?
Mehr Leistung wegen ...

Nur mal so:
Bei Vega wird auch auf den Wundertreiber und diese Funktion - deren Name mir gerade nicht einfallen will - gehofft, dass die Leistung deswegen steigt.
Aber bschhhhht

Davon eine Zukunftssicherheit ableiten zu wollen ist Kaffeesatzleserei. Man kann maximal die Rohleistung abschätzen, und das auch eher mit Anwendungen als mit Spielen. Danach ist man primär von der Softwareunterstützung abhängig
Nein eben nicht.
Nimm den i5 2500k. Wie lange war und ist diese CPU nun schon Konkurenzfähig? 6 Jahre.
Würdest du heute noch einen empfehlen? Ich nicht.
Wie siehts mit dem Ryzen 1700X aus?
Empfehlung? Also von mir schon.

Warum?
Vielleicht weil es CPU-Tests gab die im eine gute Leistung bescheinigt haben?

Vielleicht hätte PCGH lieber alle Ryzen auf 4k getestet.
Das Ergebnis wäre lustig gewesen:
Nope Leute. Wir sehen keinen Unterschied zu allen anderen CPU's.
Empfehlung weiterhin: i5 7500 weil bestes Preis/Leistungsverhältniss.
 
Zurück