Kaby Lake: Viele neue OC-Rekorde aufgestellt

Ich bezog mich auf dem Grundtakt, der bei 3,5 Ghz liegt, macht dann 4 Ghz. Bei 3,5 x2 sinds genau die 7 Ghz?

Jepp .....3,5Ghz +500 Mhz = 4 Ghz

Intel Core I7 5930K @4,3 Ghz

Ja klar hab ich das, aber das sind gerade ca 500 mhz mehr,

Bei dir scheint das aber nicht ganz zu klappen :lol:

Ich habe eher ein Verständniss prob da ich vom 7700k des Artikel ausgegangen bin
 
Stimmt doch gar nicht. Mit Standart Takt sind 10 Prozent mehr Leistung drin. Beim Übertakten unter Luft sind im Schnitt auch 300mhz mehr drin
Jeweils bester 7700K vs besten 6700K (aktuell)

Cinebench R11.5 16.72 statt 16.41 +2%
Cinebench R15 1516 statt 1488 +2%
Geekbench3 29475 statt 28735 +3.5%
---------------------------------------------------------
Fazit: Messungenauigkeit
Der RAM hat inzwischen größere Auswirkungen als neue CPUs bei Intel
 
Wenn die Benchmarkprogramme identisch sind nicht, soweit ich weiss gibt es bei Benchmarks keine "Messungenauigkeit" wie bei einem analogen Volt/Ampere/Tachometer.

Die Zeitmessung (Taktgeber?) wäre meines Erachtens die wahrscheinlichste Fehlerquelle, aber sonst ist so ziemlich alles auf Board/CPU/GPU/RAM zurückzuführen, und das gilt es ja zu bewerten in einem Benchmark.

Bei Messungenauigkeit/"Chancenungleichheit" könnte man mehrere Messungen vornehmen und den Mittelwert/Median ausrechnen. Bei Speicher- und Massenspeicherbenchmarks wird das oft gemacht.
 
Wenn die Benchmarkprogramme identisch sind nicht, soweit ich weiss gibt es bei Benchmarks keine "Messungenauigkeit" wie bei einem analogen Volt/Ampere/Tachometer.

Die Zeitmessung (Taktgeber?) wäre meines Erachtens die wahrscheinlichste Fehlerquelle, aber sonst ist so ziemlich alles auf Board/CPU/GPU/RAM zurückzuführen, und das gilt es ja zu bewerten in einem Benchmark.

Bei Messungenauigkeit/"Chancenungleichheit" könnte man mehrere Messungen vornehmen und den Mittelwert/Median ausrechnen. Bei Speicher- und Massenspeicherbenchmarks wird das oft gemacht.

Theoretisch ja, praktisch ist die Ausführung der Programme aber selbst auf gleicher Hardware selten identisch. Der Grund dafür liegt darin, dass der Benchmark in der Regel nicht direkt auf der Hardware läuft, sondern ein Betriebssystem für die Hardwareansteuerung benutzt.

Und Betriebssysteme sind mittlerweile so komplex, dass es schwierig bis unmöglich ist solche Benchmarks exakt zu reproduzieren. Das gilt natürlich besonders für Windows, aber in geringerem Maße auch für Linux. Auch hier kann der genaue Ausführungsweg eines Hintergrundprozesses z.B. vom BIOS-Datum abhängen, und damit die Performance abseits von Hardwareeinflüssen beinträchtigen.

Das schlimmste ist, dass man den Einfluss praktisch nur empirisch bestimmen kann. Man muss also den gleichen Benchmark hunderte oder tausende Male wiederholen, um ein statistisch aussagekräftiges Ergebnis zu bekommen.

Bei Messungenauigkeiten spricht man von %<1,5%.

Hast du dir die Zahl gerade ausgedacht, oder eine wirkliche Begründung? Von "Messungenauigkeiten" spricht man, wenn die Ergebnisse im Rahmen ihrer Fehlertoleranz identisch sind. Wie groß diese Fehlertoleranz ist, ist allegemein nicht auf eine simple Angabe reduzierbar, sondern hängt vom Messverfahren ab.

Beispiel: Wenn ich statt der Computerinternen Zeitmessung eine Stoppuhr verwenden würde, wäre die Fehlertoleranz der Messwerte deutlich höher, weil zumindest ich nicht auf Millisekunden genau stoppen kann.
 
Wenn die Benchmarkprogramme identisch sind nicht, soweit ich weiss gibt es bei Benchmarks keine "Messungenauigkeit" wie bei einem analogen Volt/Ampere/Tachometer.

Die Zeitmessung (Taktgeber?) wäre meines Erachtens die wahrscheinlichste Fehlerquelle, aber sonst ist so ziemlich alles auf Board/CPU/GPU/RAM zurückzuführen, und das gilt es ja zu bewerten in einem Benchmark.

Bei Messungenauigkeit/"Chancenungleichheit" könnte man mehrere Messungen vornehmen und den Mittelwert/Median ausrechnen. Bei Speicher- und Massenspeicherbenchmarks wird das oft gemacht.

Lässt sich sehr leicht testen.
Installiere irgend ein 3D MARK und lass ihn 5 mal laufen. Du bekommst 5 unterschiedliche Ergebnisse. Wenn nichts gravierend schiefläuft liegen sie ein paar Prozent auseinander.

Es gibt auch noch die Ungenauigkeit des Scores. Du hast immer eine Ungenauigkeit in der letzten stelle, denn du weißt ja nicht ob sie aufgerundet oder abgerundet wurde (im Cinebench wurde Platz 2 & 3 mit einem Punkt geschlagen, es könnte sich um 1515.49 vs 1515.50 oder auch um 1514.50 vs 1516.49 handeln)
@Mephiso_xD
Zusätzlich hast du ja noch so tolle sachen wie Boost oder Turbo (fällt bei den ExtremOClern wohl weg), damit kommen noch Temperatur abhänigkeiten.
 
Ich habe 10 mal Cinebench laufen lassen und 10 mal exakt denselben score

cin.jpg

Warum ....weil mein OC schon optimal für diesen Benchmark eingestellt ist
Genauso wie bei jeden anderen Bencher der meinen score knacken will.

Cinebench - R11.5 overclocking records @ HWBOT

Alle tweaks die ich benutzte nutzen meinen Konkurrenten ja auch sofern sie diese kennen.
Glaubt ihr eigentlich wir sind blöd und nutzen nicht jede Möglichkeit aus um nach vorne zu kommen :schief:

Warum fahren sie zb in der Formel 1 alle fast das selbe Set Up im Rennen ?
Da fährt ja auch nicht ein Fahrer mit einer völlig anderen Flügeleinstellung wie die anderen sondern nutzt ja auch die optimale ermittelte für die Strecke.

Eure Diskussion hier hat was von Taxifahren im Aufenthaltsraum die sich über das Rennen am letzten WE unterhalten ...
Jeder weiß es besser obwohl nie einer überhaupt mal in so einen Wagen gesessen hat.
 
Dann ist wohl Cinebench gut programmiert, bzw schneidet den Score bereits früh genug ab, damit normale Schwankungen erst garnicht sichtbar sind. Probier das mal mit einem 3D Mark, da sieht die Welt anders aus.
 
Also ich finds ja lustig was mit LN2 so möglich ist, ist mir aber doch etwas zu "Abstrakt" um mich dran aufzugeilen.
Für Otto Normal Verbraucher (wie mich) wäre es viel spannender wenn Ergebnisse von Luft und Wakü ... also übliche Haushaltsmittel gezeigt werden würden und dann auch mal Details was wieso eingestellt wurde.

CPU köpfen, Flüssig Metal Paste drunter, verschiedene handelsübliche Wasserkühlungen drauf und dann mal WIRKLICH die BIOS (oder sagt man jetzt UEFI?) settings auseinander nehmen... und schauen was man rausholen kann.
Spätestens beim BIOS und den tausend Settings mit Spannungen die man einstellen kann für etwaige "unbekannte Buchstaben Kürzel" hörts bei mir auf.

Was Ryzen da behauptet mit dem automatisch übertakten wenn man bessere Kühlung drauf packt finde ich höchst interessant, dann müsste ich mir nämlich keinen Kopf mehr drum machen, gute Wakü drauf und schauen was bei raus kommt und fertig.
Die Frage ist nur ob man manuell am Ende wieder viel mehr rausholen kann... ist ja irgendwie immer so.
Mehr als Prime95 laufen lassen und evtl. mal den VCore leicht anheben wenn es per Multi nicht mehr weiter geht mach ich am Ende auch nicht, da muss doch noch was gehen.
 
Mich würde aber mal sehr interessieren, wie CPU lastige Games wie Anno und Co. laufen, wenn man eine CPU mit 7GHz dran hängt.
Ob True Monkey Lust hat, stundenland LN2 nachzukippen, während ich spiele? :huh: :D
 
Mich würde aber mal sehr interessieren, wie CPU lastige Games wie Anno und Co. laufen, wenn man eine CPU mit 7GHz dran hängt.
Ob True Monkey Lust hat, stundenland LN2 nachzukippen, während ich spiele? :huh: :D

Das ein oder andere Spiel läuft vielleicht an . Viele spiele werden abstürzen.

Sobald ich meine CPU (I5 2500k) auf mehr als 5000 Mhz takte fangen immer mehr Spiele an nicht stabil zu laufen.

Komischerweise laufen 99.9% aller Spiele bei genau 5000 Mhz Stabil.

Nur ein paar Herz weiter geht der ganze Spaß erst los :ugly: . Naja , ab 5Ghz sind die Temps unter Luft auch nicht mehr Gesund :devil:
 
Zurück