Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Der 9700K ist schon ein feiner Prozessor. Bei dem Preis absolut zu empfehlen. Hab den gleichen Preis schon zum Release bezahlt und macht mehr Spaß als der 8700k :)
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

..."boxed"? Dann wirst du ihn auf 95 Watt limitieren müssen, das Ding schreit doch förmlich danach: "Quetsch aus mir raus was geht, TDP egal".:)
Nee, wenn du nen Prozzi käufst, dann doch Boxed. Die Garantie ist länger (2 statt 3 Jahre) und du kannst dir sicher sein, keinen Rückläufer zu bekommen... Zumindest war es bisher so, klär mich einer auf, wenn sich was geändert hat.

Gruß
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Mit dem Intel extrem utility kannst Du die TDP bremse lösen, sodass der der 8700 immer auf 4,3 ghz läuft, dann ist der 8700k nur schneller wenn man ihn übertaktet....

Beiden Z Boards läuft der von Haus aus mit den gleichen Taktraten, da musst du nicht mal was einstellen.

Der 8700 war immer schon der Geheimtipp, hatte damals nur 275 Euro gekostet.
 
Zuletzt bearbeitet:
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Der 9700K ist schon ein feiner Prozessor. Bei dem Preis absolut zu empfehlen. Hab den gleichen Preis schon zum Release bezahlt und macht mehr Spaß als der 8700k :)

Der Preis ist doch viel zu teuer? Für weniger Geld kaufe ich mir lieber einen AMD-Prozessor, der dann auch noch SMT unterstützt.
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Ja dann Spiel mal Strategiespiele im CPU Limit auf dem Ryzen ;) Gibt genug Gründe weiterhin Intel zu präferieren
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Der Preis ist doch viel zu teuer? Für weniger Geld kaufe ich mir lieber einen AMD-Prozessor, der dann auch noch SMT unterstützt.

Ich hab SMT im BIOS standardmäßig deaktiviert.
Für 25% Mehr Leistung kann man schon 100 Euro mehr drücken, finde das jetzt nicht so überzogen.

Aber klar man kann hier und da immer was sparen, allerdings weise man auch nicht mehr wie lange man lebt.
Da müssen es nicht immer Kompromisse sein. ;)
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Ich hab SMT im BIOS standardmäßig deaktiviert.
Für 25% Mehr Leistung kann man schon 100 Euro mehr drücken, finde das jetzt nicht so überzogen.

Aber klar man kann hier und da immer was sparen, allerdings weise man auch nicht mehr wie lange man lebt.
Da müssen es nicht immer Kompromisse sein. ;)

Du meinst zwischen 9700k und 9900k ja da sind die 25% nur theoretisch. In Wirklichkeit wirst du zwischen -5 und bis zu +10% liegen. Ich habe noch keine Software gehabt die die 25% tatsächlich umsetzen konnte, ausser Benchmarks. Ich habe bei meinem 2700X SMT deswegen auch aus.
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Blöde Rechnung: 6x120% versus 8x100%?

Praktisch 720 vs 800? Wer ist schneller wenn der Sheduler gut optimiert daherkommt? Die +33% die Intel damals versprach, naja könne auch bloß 5% sein, weil "bis zu" nicht 33 ist.

Im ungünstigen Fall hast du dann 600 vs 800!

OK. Hab noch mal nachgeschaut. Außer in VeraCrypt ist der i7-9700K tatsächlich immer schneller als der i7-8700K.
Intel Core i9-9900K & i7-9700K im Test (Seite 2) - ComputerBase
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Das Leistungsratering(Anwendungen) bei CB sagt 10% mehr für den 9700K gegenüber dem 8700K, hmm all Core Takt liegt aber auch schon 7% höher, Wahnsinn wie Intel da immer seine 3% unterbekommt,
gefühlt geht das doch seit Core2Duo so. (oder ist es gar so?!)
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Die Karte soll auch nicht ausgelastet werden, sondern die CPU. 720p statt Full HD verringert die Messungenauigkeit.
Mal wieder nicht verstanden wie man eine CPU testet. Klappe die 1000te.
Und was misst du damit? Spiele und was brauchen Spiele, Draw Calls/Multithread? und wenn die GPU vor sich hintrottelt was ist dann? Klappe die 1mio mal Schaffe89 immer der gleiche Unsinn.

Du siehst dich doch als Enthusiast, wie erklärt sich das? Spiele durchwandern mit der Auflösung Engpässe. Bei 720p sehe ich auf heutiger Hardware immer 150 fps (ab einer GTX 1080), was bedeutet das selbst jede erbärmliche 2-4 Core CPU Krücke damit umgehen kann. Bottlenecks enden auf einem i7 oder Ryzen 8C bei 1440p und unter 2160p auf Highend-Prozessoren sind sie dann verschwunden, weil diese dann nicht mehr die CPU limitieren.

Eine CPU kauft man heute also nicht mehr, um mit ihr in einer Auflösung von 720p spielen will, sondern man kauft sie anhand oder nach der tatsächlichen Auflösung die man in Spielen einstellen will. Ich kaufe doch keine 2080ti für 720p, was soll dieser Unfug? Die Hardware ist heuzutage in der Lage sich selbst zu überwachen und schaltet einfach Areale oder Cores ab, wenn es sein muss. Das ist selbst unter Boostclock möglich. Ich weiß sehr wohl, wie man eine CPU testet, nur ist das nicht die einzige Komponente in einem System und ist deren Leistungsabbild mittlerweile in enger Verknüpfung mit anderer Hardware und von weiteren Faktoren abhängig, wir haben nämlich nicht mehr 1995.

Klappe die Zehnte, waren es bei CB die Werte dir ich dir genannt habe, nicht 20% irgendwas, sondern -12 Gaming/+8 Anwendung und der 2700x hat zwei Cores mehr.

Wenn du nur nicht immer so überheblich wärst. Kindergartenlevel oder Selbstüberschätzung? Ich hatte ja Hoffung das ist dies in diesem Thread anders wird, aber leider bleibt alles beim alten. Sei's drum...

Die bösen Draw Calls, nicht wahr? Wenn man in geringer Auflösung weniger davon triggert, weil eine Szene dann weniger aufwendig dargestellt wird, dann wird die CPU überhaupt nicht ausgelastet. Also kann man sie auch nicht unter optimalen Bedingungen messen, testen oder feststellen wie schnell sie ist, weil man sie einfach mit hohem Takt unter niedriger Auflösung bei hoher fps Rate misst, was nicht heißen muss - das man sie auslastet, wie verwunderlich! Genau das Gegenteil wird der Fall sein.

Jedes Material zum Beispiel verusacht einen Draw Call und diese Menge kann je nach verwendeten Shadern unterschiedlich hoch/groß ausfallen, wobei jedes unabhängige Objekt und deren Anzahl auch Draw Calls erfordert (mal abgesehen davon statische und dynamische Objekte zu splitten). Was nutzt es jetzt also die Auflösung zu verringern und damit weniger darzustellen, zuletzt dadurch weniger Rechenlast zu erzeugen? Ich persönlich halte das für Blödsinn, weil ich mit geringer Auflösung dann einfach nur messe wie schnell eine GPU in 720p ist, mehr nicht! In 480p wären es dann 2000 fps pro sec, und jetzt?
 
Zuletzt bearbeitet:
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Und was misst du damit?

Wie sich der Prozessor verhält wenn der GPU Einfluss minimiert wird.
Dabei spielt die Auflösung keinerlei Rolle.
Man kann Frostpunkt auch in 4K testen, da dort bereits der Prozessor limitiert.

Senkst du die FPS auf 720 p bleiben sie gleich hoch. Auflösung ist dem Prozessor egal.

nd wenn die GPU vor sich hintrottelt was ist dann?

Die GPU senkt den Takt nicht wenn die Auslastung auf den Prozessor übergeht.
Musst du halt einfach selbst testen.
Du siehst dich doch als Enthusiast, wie erklärt sich das? Spiele durchwandern mit der Auflösung Engpässe. Bei 720p sehe ich auf heutiger Hardware immer 150 fps (ab einer GTX 1080), was bedeutet das selbst jede erbärmliche 2-4 Core CPU Krücke damit umgehen kann.

Aua.. Ja.. Am besten nen P4 Single Core nehmen für 720p reicht das Lel. :D
Wie gesagt ich spar mir die Diskussion da du keinen Schimmer hast.
Du Weisst janicht mal was ein CPU Limit ist oder für was der Prozessor zuständig ist.
Niemand würde sowas schreiben, aber Hauptsache wieder einen ewiglangen Beitrag hinklatschen der intelligent klingt.

Zum Rest: Falsch.
Ich weiß nicht wo du dir das mit den Arealen aus der Krampe ziehst, aber das zu lesen tut schon besonders weh.

Und bei gleichem Seitenverhältnis, ändern sich die Drawcalls kein Stück Herr Professor.

Jede Jubeljahte taucht jemand im Forum auf der von vorne bis hinten keineAhnung hat wie man einen Prozessor in Spielen testet und dann kommt noch die glorreiche Aussage, ich kaufe janicht um in 720p zu spielen, Jane is klar. Das sind Schmerzen im Kopf.. AUA.

Hier muss ich raus, sry.
 
Zuletzt bearbeitet:
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Forum spinnt, bitte löschen.
Sry für den Doppelpost.
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Ich persönlich halte das für Blödsinn, weil ich mit geringer Auflösung dann einfach nur messe wie schnell eine GPU in 720p ist, mehr nicht! In 480p wären es dann 2000 fps pro sec, und jetzt?
Schlicht weg Blödsinn ist es das zu glauben:nene:

Bei 720p sehe ich auf heutiger Hardware immer 150 fps (ab einer GTX 1080)
Aber sicher doch:lol::lol::lol:
Ist jetzt neuerdings eine GTX 980Ti genauso schnell wie eine GTX 1080Ti?
Aus unserem ACO CPU Test (Dank an LastManStanding der das mit seiner GTX 980Ti und seiner GTX 1080Ti getestet hat)
aco-jpg.1024219


Wenn in 720p angeblich nur die GPU Leistung gemessen wird, warum sind @Gaussmath Treadripper, oder der i9 um soviel schneller? Bei gleicher gGrafikkarte.
aco-gaussmath-vs-dahell63-png.1024220



raff-png.1024221

Bei @Raff ist es ähnlich. Während sein Ryzen die TitanX in niedrigen Auflösung brutal limitiert ist @Raff -mit seinem untertakteten Ryzen- in 4K flotter unterwegs als ich mit dem i9. Dank stärkerer Grafikkarte.
Deswegen ist doch der i9 nicht auf einmal langsamer. Wenn eine ausreichend starke Karte zur Verfügung stehen würde hätte ich weiterhin ~148FPS, während der Ryzen bei ~80FPS stehen bleiben würde.


Das was man sehen kann.......in 4K, oder WQHD reicht meist ein schwächerer Prozessor, ohne große FPS Einbußen befürchten zu müßen.
Das einzige was bei den CPU Tests zu beachten ist...........alle CPU relevanten Sachen müßen auf maximum stehen. Deswegen finde ich die CPU Teste auf niedrig so lächerlich (so wie es manche Redaktionen handhaben).
 

Anhänge

  • ACO.jpg
    ACO.jpg
    388,9 KB · Aufrufe: 124
  • ACO Gaussmath vs DaHell63.PNG
    ACO Gaussmath vs DaHell63.PNG
    814,3 KB · Aufrufe: 124
  • Raff.PNG
    Raff.PNG
    68 KB · Aufrufe: 129
Zuletzt bearbeitet:
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Ich zock überwiegend Strategietitel und die Performen durch die Bank besser als auf meinem alten i7 3770k.

Sry dann machst du was falsch. Ich hatte mal den 1800X und der war teilweise langsamer als mein 4930K@4,6. Gegen mein 6700K@4,8 sah der damals ganz alt aus. Das war auch der Grund für den 9700K. Ich habe kein Spiel was großartig über 8 Threads skaliert, aber dafür habe ich lieber 5,2 Ghz. Für meine präferierten Spiele ist das gegenwärtig die beste Lösung. Spiel mal Frostpunk, Stellaris, Factorio, Starcraft und einige andere. Da hast du mit nem Intel mal locker 50% und FPS.

Klar für die meisten im GPU Limit mit ner 580 oder 1060 ist die CPU fast immer egal. War dein 3770K CO?
 
Zuletzt bearbeitet:
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Komisch!

Ich spiele sehr viel HoI IV und die Clausewitz Engine ist nun dafür bekannt, nicht Multithread optimiert zu sein und ich habe absolut keine Probleme mit einem Ryzen 1600, allerdings betreibe ich den auf 3,8 GHZ mit 3466 MHZ Cl14 RAM und optimierten Subtimings.
Genauso habe ich keine Probleme in Starcraft 2 oder in CS:GO, man muss nur wissen, welchen RAM man für seinen Ryzen braucht und wie man ihn konfigurieren muss. Wie immer sitzt das Problem vor dem Bildschirm!
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Wer redet auch von Problemen, es geht um einen Leistungsvergleich.
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Komisch!

Ich spiele sehr viel HoI IV und die Clausewitz Engine ist nun dafür bekannt, nicht Multithread optimiert zu sein und ich habe absolut keine Probleme mit einem Ryzen 1600, allerdings betreibe ich den auf 3,8 GHZ mit 3466 MHZ Cl14 RAM und optimierten Subtimings.
Genauso habe ich keine Probleme in Starcraft 2 oder in CS:GO, man muss nur wissen, welchen RAM man für seinen Ryzen braucht und wie man ihn konfigurieren muss. Wie immer sitzt das Problem vor dem Bildschirm!

Sry jetzt muss ich aber lachen :schief:

YouTube

Mein 9700K macht selbst mit 5,2 Ghz im Late Game Sc2 60 bis 70 FPS. Da schafft der Ryzen auch optimiert keine 30 FPS mehr. Auf was beziehen sich den deine Ergebnisse? Bisschen Skirmish oder Fun Maps? Zock mal 4vs4 wenn da 1400 Supply aufeinander treffen. Da macht der Ryzen ne Diashow. Von Stellaris Late Game will ich gar nicht anfange. Ryzen ist im CPU Limit noch immer deutlich hinter Intel. Da zeigen auch alle Tests. Im PCGH Test sind es 30% und das ist noch geschönt für Ryzen. Da dieser dank XFR am Limit läuft während der Intel noch OC Spielraum hat.

Du brauchst deinen Ryzen vor mir nicht zu verteidigen. Ich habe genug persönliche Erfahrungen gesammelt um zu Wissen das mir Intel jeden Euro Auspreis Wert ist. Schade das PCGH Sc2 auf den Benchamakr Parcour genommen hat, aber der Protest der AMD Fanboys war ja scheinbar nicht mehr auszuhalten.

Aber lass doch mal einen Bench machen. Meine System gegen deins und dann will ich mal sehen was deine CPU an Bildern schafft? Edit: Das Video mit dem Bench ist sogar noch relativ schlecht, da hier ein Replay genutzt wird und somit die ganze KI und Wegfindung nicht mehr berechtet wird. In Echtzeit sind die FPS noch viel schlechter.
 
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt

Und bei gleichem Seitenverhältnis, ändern sich die Drawcalls kein Stück Herr Professor.

Jede Jubeljahte taucht jemand im Forum auf der von vorne bis hinten keineAhnung hat wie man einen Prozessor in Spielen testet und dann kommt noch die glorreiche Aussage, ich kaufe janicht um in 720p zu spielen, Jane is klar. Das sind Schmerzen im Kopf.. AUA.

Hier muss ich raus, sry.
Boah - du schreibt so einen Quatsch, dass ist einfach nicht auszuhalten, hier das stammt von der PCGH selbst:
PCGH schrieb:
...hat CD Projekt die Rendermethodik der RED Engine 3 gegenüber The Witcher 3 und Hearts of Stone überarbeitet. Man habe Wege gefunden, trotz der erhöhten Details Drawcalls einzusparen.
Wenn ich eine geringe Auflösung wähle, ist auch mein Bildauschnitt kleiner (Stichwort Skalierungsfaktor).Wenn ich die Qualität runterdrehe und die Auflösung verringere, minimiere ich auch die Anzahl der Draw Call-Aufrufe (um 50-90% je nach Frame). Bei Ubisoft werden heute anstatt 5.000-10.000 Draw Calls, 50.000 pro Frame aufgerufen. Je komplexer der Inhalt und je höher der Deatilgrad um so mehr.

Genau deshalb diskutiert man schon länger darüber, was die Reduzierung der Auflösung bei Hardwaretest für eine Auswirkung auf das Leistungsabbild der Hardware hat und ob das heute überhaupt noch up to Date ist. Es sind ausreichend Ressourcen vorhanden, die Auflösung höher einzustellen und eher ein "optimales" als denn maximales Abbild bei geringer Auflösung in seinen Testszenarien zu schaffen. Nur bei dir ist es so, du braucht lange Balken um wissen ob Hardware gut oder böse ist.

Unter Dx12 steigt der Faktor Draw Call um die Größe 10 an. Der dabei entstehende Overhead (zum Beispiel beim Datenaustausch) limitiert die Hardware, dass muss aber gar nicht an der Hardware liegen. Richtig ist, dass reine Draw Call Aufrufe die GPU nicht merklich limitieren, diese sind aber von der Qualitätsstufe und dem Bildinhalt abhängig. Der Unterschied in Nanosekunden (pro Task) in ausschlagebender. Unter Dx11 und mit mehreren Threads wurde bestimmte Hardware massiv limitiert. Mit neueren APIs steigen die Aufrufe massiv an und mutieren dann irgendwann mit steigendem Detailgrad ganz klar zum GPU Bottleneck. Natürlich ist es dann wichtig, wie viel davon überhaupt dargestellt werden muss.

Warum glaubst du sollt du die Auflösung beim 3DMark nicht verändern, bzw. wird dein Benchmarkergebnis dann nicht validiert? Weil UL lange Weile hat? Und tue nicht so, als wüsstet du darüber auch nur irgendwas wichtiges.

Weißt du was dabei dein größtes Problem ist, dir fehlt mit steigender Auflösung die Argumentationsgrundlage, denn dann ist ein i9 9900k kaum schneller als ein SR5 1600! Das ist alles. Es geht nur um ein krankes Spielchen, dass hier seit Jahren getrieben wird, anno 1995.
 
Zuletzt bearbeitet:
Zurück