Intel Core i9-13900K, i7-13700K und i5-13600K im Test: Befreiungsschlag für den Chipriesen

Anno 1800 sagt mir etwas völlig anderes. Im übrigen: wenn es nicht um Leistung geht, warum kauft man sich dann überhaupt eine CPU der neuen Generation? So ein R5 5500 ist doch auch günstig und kostet wesentlich weniger.

Wer sich einen AMD 7000er, Raptorlake oder R5 5800X3D kauft, der erwartet meist ordentlich Leistung.
Ja toll in Anno 1800, in anderen Games dann wieder nicht so oder nur knapp, also durchgängig schneller auf keinen Fall
 
Immer diese Diskussionen. Einer sagt dass er findet, die CPU schluckt zu viel und bringt ihm zu wenig, was vollkommen legitim ist und schon kommen gleich drei daher und meinen er wäre aufgeregt. Kein Schimmer wo die Aufregung her kommt. Der User selbst war jedenfalls ruhig und sachlich. Dann wird der Anwendungsfall jedes einzelnen infrage gestellt, was schon echt albern ist. Denn genau das war ja immer das tolle am PC. Man kann den seinem Anwendungsfall anpassen. Demnach hat jeder mit seinem Fazit Recht und da braucht keiner kommen mit: Ja aber nur da. Eben drum! Das reicht doch. Ein Freund von mir spielt im Jahr bestimmt 800 Stunden Anno... in FHD.
Soll ich dem jetzt sagen dass sein System Quatsch ist, weil ich ja seit Jahren in hohen Auflösungen unterwegs bin? Nö.

Der einzige Unterschied besteht doch darin, dass manche zufrieden sind mit einem bestimmten Anwendungsfall, also eingegrenzt und andere eben Systeme aus dem vollen schöpfen um alles abdecken zu können.
 
Zuletzt bearbeitet:
Mein 5800X3D läuft mit BIOS-UV und mit PBO2 Tuner zusätzlich auf -30 und bringt mit diesen Einstellungen seine maximale Leistung bei noch weniger Verbrauch, jupp.
PPT/TDP zu begrenzen hingegen macht beim 5800X3D dadurch 0 Sinn.

Mein einziger Kritikpunkt ist das harte, künstliche Ghz-Limit. Denn mein 5800X3D scheint mit UV mehr zu schaffen, wenn man ihn denn liesse.



Stimme grundsätzlich zu.
Aber die Geforce 256 DDR enttäuschte mich in Sachen Performance ziemlich (Und ich musste beim damaligen Mainboard eine zusätzliche Stromleitung an den PCIe-Port anlöten, damit genug Saft da war, um nicht nach ein paar Sekunden einen Blackscreen und Restart sehen zu müssen :ugly: ).
Die GeForce 3 war dann relativ okay und mit der Radeon 9800 Pro war NVidia für mich schliesslich Geschichte.
Wenn du die aktuellen CPUs von AMD und Intel selbst optimierst und auf 50W begrenzen würdest, dann läge das Ergebnis sehr dicht bei sammen. Draum sollte es gehen. Ohne zu tief, auf individuelle Dinge einzugehen.
Auch wenn die neue Platform überhaupt nichts relevantes neues für dich hat...?
Vielleicht 2 PCIe Lanes und 2 USBs mehr, die die aber nicht brauchst?
Tut mir leid, deine "Argumentation" ist dann einfach nicht auf Logik basierend und die Diskussion hat sich erledigt.
Sorry, aber alles was nicht meine Logik ist, ist keine Logik hat komische Züge.

Aber süß. Darüber kann man auch schlicht, schlecht dissikutieren, da es um persönliche Kaufentscheidungen geht und da legt jeder selber die Maßstäbe, nach denen das dann auch immer logisch ist.
 
Laut einer internen Email von heute Morgen sollte das jetzt funktionieren, checks mal bitte :-)
Sieht besser aus
Screenshot_20221024-091205.png
 
Das Powerlimit im BIOS auf 80W setzen dauert vielleicht eine Minute.
Danach "erscheint" der Prozessor nicht nur effizienter, sondern ist es auch.

Ich unterstütze keine Stromschleuderkampage verstehst du die Aussage?

Bei dem Preis lese ich mich nicht in 2-3 Artikel ein wie wo genau der Sweetspot sitzt.

Da kommt einfach eine AMD CPU rein bei der die Leistung einfach passt.
 
Wenn du die aktuellen CPUs von AMD und Intel selbst optimierst und auf 50W begrenzen würdest, dann läge das Ergebnis sehr dicht bei sammen. Draum sollte es gehen. Ohne zu tief, auf individuelle Dinge einzugehen.
[...]

Mag sein, sind halt einfach sehr viele Konjunktive, die in der Praxis für 99% der Leute nicht relevant sind.
Mir fehlt zudem die Vergleichsbasis, um dazu eine belastbare Aussage für eine selektive Auslegung bei einem maximalen Betrieb von 50W Packetpower zu tätigen und lasse es hierzu irgendwelche Behauptungen raus zu posaunen.
Pauschal kann man vielleicht gerade noch sagen, dass ein 24/16/14-Kerner Raptor im Rendering bei 50W wahrscheinlich effizienter arbeiten wird als ein 8-Kerner irgendwas. Nur warum sollte man eine CPU für so ein Einsatzgebiet auf 50W begrenzen?

Ich unterstütze keine Stromschleuderkampage verstehst du die Aussage?

Bei dem Preis lese ich mich nicht in 2-3 Artikel ein wie wo genau der Sweetspot sitzt.

Da kommt einfach eine AMD CPU rein bei der die Leistung einfach passt.

Bei den Ryzen 5000 stimme ich dem vollständig zu. Bei den Ryzen 7000 nur bedingt.
Ryzen 7000 ist zwar in vielen Bereichen sehr effizient, es wäre aber mehr gegangen.
Ich denke bei der 7000er-Gen dürfte UV und evtl. die manuelle PPT-Begrenzung für das 1% technisch versiertere PC-Nutzer:innen interessanter sein als noch bei der 5000er-Gen, weil AMD m.M. den Stromhahn im Stockzustand unnötig weit geöffnet hat. Leider fehlt hier ein Tuning-Artikel von PCGH, wo man dies vergleichen könnte (Das "Tuning" mit dem Einschalten des Eco-Modes in den Testartikeln ist da nur die halbe Miete).

Als Vergleichsbasis: Mit meinem 5800X3D schaffe ich es mit UV bsw. in CB23 15'025 Punkte herauszuholen (PCGH: 14'442) bei einer Package-Power von Peak ~102W (laut CPUID HWMonitor, PCGH: 109W, Messungswerkzeug mir unbekannt). Das sind ~4% mehr Rechenleistung bei vielleicht ~6% weniger Verbrauch unter Volllast.
Es wäre durchaus interessant zu wissen, wie viel und ob hier bei Ryzen 7000 und Intels Raptor noch Effizienzpotenzial brach liegt.
 
@PCGH wie vergleichbar sind die Werte eigentlich. Es gibt doch bekanntgewordene Performance Probleme mit Ryzen 7000 und Windows 11 22h2 ähnlich wie damals mit Ryzen 5000. Wird das nach einem Update/Fix nochmal nachgetestet? Denn diese Bugs verfälschen ja eigentlich die Werte im Vergleich.
 
Mag sein, sind halt einfach sehr viele Konjunktive, die in der Praxis für 99% der Leute nicht relevant sind.
Mir fehlt zudem die Vergleichsbasis, um dazu eine belastbare Aussage für eine selektive Auslegung bei einem maximalen Betrieb von 50W Packetpower zu tätigen und lasse es hierzu irgendwelche Behauptungen raus zu posaunen.
Pauschal kann man vielleicht gerade noch sagen, dass ein 24/16/14-Kerner Raptor im Rendering bei 50W wahrscheinlich effizienter arbeiten wird als ein 8-Kerner irgendwas. Nur warum sollte man eine CPU für so ein Einsatzgebiet auf 50W begrenzen?



Bei den Ryzen 5000 stimme ich dem vollständig zu. Bei den Ryzen 7000 nur bedingt.
Ryzen 7000 ist zwar in vielen Bereichen sehr effizient, es wäre aber mehr gegangen.
Ich denke bei der 7000er-Gen dürfte UV und evtl. die manuelle PPT-Begrenzung für das 1% technisch versiertere PC-Nutzer:innen interessanter sein als noch bei der 5000er-Gen, weil AMD m.M. den Stromhahn im Stockzustand unnötig weit geöffnet hat. Leider fehlt hier ein Tuning-Artikel von PCGH, wo man dies vergleichen könnte (Das "Tuning" mit dem Einschalten des Eco-Modes in den Testartikeln ist da nur die halbe Miete).

Als Vergleichsbasis: Mit meinem 5800X3D schaffe ich es mit UV bsw. in CB23 15'025 Punkte herauszuholen (PCGH: 14'442) bei einer Package-Power von Peak ~102W (laut CPUID HWMonitor, PCGH: 109W, Messungswerkzeug mir unbekannt). Das sind ~4% mehr Rechenleistung bei vielleicht ~6% weniger Verbrauch unter Volllast.
Es wäre durchaus interessant zu wissen, wie viel und ob hier bei Ryzen 7000 und Intels Raptor noch Effizienzpotenzial brach liegt.
Weil nicht jeder, mit einem Privatrechner Cinebench spielt ;) Spaß, ob jetzt 50, 70, 95, oder wo man die Grenze halt ziehen will, ist halt individuell.
 
Falls es hier schonmal konkret gefragt wurde, ein sorry dafür: Macht es in Games einen Unterschied, ob ich z.B. den 13600KF auf ein Z690 oder Z790 Board betreibe? Die neuen Bretter lassen ja höheren RAM Takt zu und der IMC ist auch besser geworden.
 
Falls es hier schonmal konkret gefragt wurde, ein sorry dafür: Macht es in Games einen Unterschied, ob ich z.B. den 13600KF auf ein Z690 oder Z790 Board betreibe? Die neuen Bretter lassen ja höheren RAM Takt zu und der IMC ist auch besser geworden.
Wenn du zwei gleiche Bretter nimmst also Z690 Tomahawk oder das z790 davon ist der unterschied verschwinden gering.
Also wenn du keine der neuen Features von z790 brauchst nimm gern ein z690 Board.
 
Alles richtig, @Cleriker. Das funktioniert andersrum aber ganz genauso. Es gibt immer diejenigen, die nicht aufhören können, gegen Fans und Käufer von teuere, hochwertiger und oft genug auch stromhungriger Hardware zu wettern.

Zu all den "Argumenten", die es dabei ja schon immer gab (Unvernunft, Preis und was weiß ich) gesellt sich nun halt auch noch die Umwelt und der Stromverbrauch.

Nichts ist einseitig. Der Streit wird von beiden Seiten gleichermaßen verbissen geführt.

Da muss ich dir leider zustimmen. Wie du weißt gehöre ja auch ich zu den Usern die gern mal diskutieren. Zwar nicht bei den von dir genannten Themen, aber beispielsweise wo einer zu mir meinte dass die 3090 klar das bessere Produkt sein, im Vergleich zur 6900XT. Das sehe ich bis heute nicht. Die eine ist schneller und bietet DLSS, dafür ist die andere im gleichen Verhältnis günstiger. Also für mich ausgewogen. Das sind so Dinger da geht's dann nur noch um persönliche Präferenzen und das ist okay. Ich bin aber direkt getriggert, wenn mir jemand mit Fakten kommt die keine sind, sondern rein subjektive Beurteilungen.

Jemand anderem aber seine Meinung nicht zu gönnen, das geht dann schon wieder in eine ganz andere, unsachliche Richtung.
 
Falls es hier schonmal konkret gefragt wurde, ein sorry dafür: Macht es in Games einen Unterschied, ob ich z.B. den 13600KF auf ein Z690 oder Z790 Board betreibe? Die neuen Bretter lassen ja höheren RAM Takt zu und der IMC ist auch besser geworden.

Ob es Unterschiede bei RAM-OC durch die neue Board-Generation gibt, wissen wir noch nicht. Aber der PCH selsbt ist egal und die CPU selbst kümmert sich auch nicht drum, nur Leiterbahnen-Routing und UEFI-Presets könnten einen Tick besser sein.
 
Elmorlabs PMD + EVC2, Polling Rate 50 ms, angegeben wird der durchschnittliche Wert, nicht der Peak.

Okay danke für den Hinweis :)
Dann kann man die beiden Werte wie schon vermutet nicht einfach so miteinander vergleichen.

Weil nicht jeder, mit einem Privatrechner Cinebench spielt ;) Spaß, ob jetzt 50, 70, 95, oder wo man die Grenze halt ziehen will, ist halt individuell.

Hatte auch keinen Bock gleich einen gross angelegten Test mit mehreren Spielen hinzulegen, schon mangels präzisen Messinstrumenten :ugly:
 
Wenn du zwei gleiche Bretter nimmst also Z690 Tomahawk oder das z790 davon ist der unterschied verschwinden gering.
Also wenn du keine der neuen Features von z790 brauchst nimm gern ein z690 Board.
Denke ich auch, bisher war es fast immer egal welches board man nahm. Solange man nix übertaktete war eine cpu auf einem 60€ board so ziemlich genauso schnell wie auf einem 600€ Board. Der Aufpreis war nur nötig für Übertakter, mehr Anschlüsse besserer onboard soundchip etc. Die cpu lief jedoch auf jedem board immer rel. gleichschnell. Ich kauf daher immer günstige Board um die 100€. Brauch den Schnickschnack nicht. Investiere die gesparten € lieber in schnellere cpu+gpu.
 
Keine Ahnung werde mit Intels neuen Cpu´s und dem Big Littel nicht richtig warm.

Hab einen PC kein beschissenes Handy auf dem Schreibtisch stehen ^^

Jetzt könnte die GUI von WIndows 8 ein Revival haben.

Intel ist nur 4% schneller, aber zu welchem Preis. (Nicht das es Intel oder die Käufer interessieren würde).

Jedoch muss ich sagen, dass vorallem der 13600K / 13700K echt interessante Cpu´s sind.

7600X 6/12 und 13600K 14/20 350€ zu ca 380€

7700x 8/16 gegen 13700K 16/24 460€ zu 508€

Das ist schon attraktiv. Mainbaord technisch sind beide fast gleich Teuer. Wer sich eine neue CPU gönnt verschenkt keine Leistung mit DDR4 ram.

Ich warte noch ein bis zwei Jahre. Hab mir wieder ein 5800x mit 32Gb und 570x Board gekauft. Hat weniger gekostet als die 7700 oder 13700K allein.^^
 
Zuletzt bearbeitet:
Hatte vorher ne gleichmässige Auslastung, und nun sollen die nichts mehr zutun haben?

Kann ich nicht nachvollziehen, sehe ich auch daran das die max FPS deutlich weniger sind als mit alten.
 
Zurück