• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Vergleich: 10900OK OC vs 5900X OC

Noel1987

Software-Overclocker(in)
Wenns euch glücklich macht, macht ihr mal. Aber denkt bitte auch an die Software. Die meisten Spiele sind in C kompiliert, was generell für intel optimiert ist. Also wenn ihr euch da Unterschieede von 5 fps in Games anschaut, denkt bitte auch an die Compiler Optimierungen.

Für Intel optimiert und von AMD gerockt
 

blue_focus

Freizeitschrauber(in)
Wenns euch glücklich macht, macht ihr mal. Aber denkt bitte auch an die Software. Die meisten Spiele sind in C kompiliert, was generell für intel optimiert ist. Also wenn ihr euch da Unterschieede von 5 fps in Games anschaut, denkt bitte auch an die Compiler Optimierungen.

Es kommt hald voll drauf an, was man mit seinem System macht. Jede Plattform hat seine Vor- und Nachtteile. Im Optimalfall sollte eine CPU der perfekte Allrounder sein, der alles gleich gut kann. Leider ist es in der Realität nicht so.

So wie ich das interpretiere, schreibst du hier von der Rohleistung und nimmst es für gesetzt, dass man diese auch immer und in jeder Lebenslage auf die Straße bekommt bzw. zu bekommen hat.
Schön wäre es...
Es ist schon richtig, dass auf Grund des "Leistungsmonopols" von Intel der letzten 10 Jahre sehr viel Code auch (noch) auf Intel optimiert ist. Allerdings ist es dem nicht Technik affinen End-Kunden reichlich egal, welche Softwareteilkomponente für schlechte Performance verantwortlich ist. Und schon gar nicht interessiert ihn Middle-Ware ala Compiler. Denn ->

Die Hardware kann der Kunde beeinflussen in dem er einfach die eine Welche kauft, die für seinen Use-Case besser funktioniert.
Er kann aber nicht beeinflussen welchen Compiler oder welches Entwicklungsframework der Hersteller seiner Lieblingssoftware jetzt oder in Zukunft verwendet.
 

ntropy83

Komplett-PC-Aufrüster(in)
Es kommt hald voll drauf an, was man mit seinem System macht. Jede Plattform hat seine Vor- und Nachtteile. Im Optimalfall sollte eine CPU der perfekte Allrounder sein, der alles gleich gut kann. Leider ist es in der Realität nicht so.

So wie ich das interpretiere, schreibst du hier von der Rohleistung und nimmst es für gesetzt, dass man diese auch immer und in jeder Lebenslage auf die Straße bekommt bzw. zu bekommen hat.
Schön wäre es...
Es ist schon richtig, dass auf Grund des "Leistungsmonopols" von Intel der letzten 10 Jahre sehr viel Code auch (noch) auf Intel optimiert ist. Allerdings ist es dem nicht Technik affinen End-Kunden reichlich egal, welche Softwareteilkomponente für schlechte Performance verantwortlich ist. Und schon gar nicht interessiert ihn Middle-Ware ala Compiler. Denn ->

Die Hardware kann der Kunde beeinflussen in dem er einfach die eine Welche kauft, die für seinen Use-Case besser funktioniert.
Er kann aber nicht beeinflussen welchen Compiler oder welches Entwicklungsframework der Hersteller seiner Lieblingssoftware jetzt oder in Zukunft verwendet.

Hast du grad ernsthaft nen Compiler als Middle-Ware bezeichnet? :D
 

blue_focus

Freizeitschrauber(in)
Hast du grad ernsthaft nen Compiler als Middle-Ware bezeichnet? :D
Kommt jetzt drauf an, ob man's aus Sicht des Quellcodes, oder des fertigen Ergebnisses betrachtet. Aus Sicht des Entwicklers ist ein Compiler ein Stück Software bzw. Bestandteile der IDE welches aus Source-Code Maschinen Code erzeugt. Somit für meine Begriffe Middleware. Wie tief runter bzw. hardwarenahe der Maschinencode dann ist kommt dann wieder auf die Implementierung des Compilers an. Ein C++ wird da sicher näher an der Hardware sein, als zB.: C# mit dem ganzen .Net Stack dazwischen.
Aber das wird jetzt zu philosophisch und hat auch rein nichts mit meiner Aussage oben zu tun. :D
 

Gurdi

Kokü-Junkie (m/w)
Versteh schon, ich hab leider die meisten Games nicht und im Grunde auch ein eher mittelmäßiges Sample.
Der 5900x ist mit 12 Kernen noch mal nen guten Zacken flotter unterwegs als mit 24 Threads.
 
TE
blautemple

blautemple

Lötkolbengott/-göttin
Versteh schon, ich hab leider die meisten Games nicht und im Grunde auch ein eher mittelmäßiges Sample.
Der 5900x ist mit 12 Kernen noch mal nen guten Zacken flotter unterwegs als mit 24 Threads.
Die CPUs wurden bewusst nicht beschnitten. Der 10900K würde ohne SMT auch noch mal ein Stück zulegen, gerade in BFV z.B.
 

Rorschach123

PC-Selbstbauer(in)
Wäre noch cool, wenn du vielleicht dir ein ASUS Dark hero organisieren könntest, da macht es dank der bisher einzigartigen Funktion Dynamic OC Switch endlich wieder Sinn, einen Ryzen manuell hochzutakten.
 
TE
blautemple

blautemple

Lötkolbengott/-göttin
Wäre noch cool, wenn du vielleicht dir ein ASUS Dark hero organisieren könntest, da macht es dank der bisher einzigartigen Funktion Dynamic OC Switch endlich wieder Sinn, einen Ryzen manuell hochzutakten.
Mit dem Curve Optimizer kann ich das auch händisch machen und sobald es ein vernünftiges Bios von Gigabyte gibt werde ich das auch machen. Zusammen einem höheren RAM/IF Takt werden die Werte für den 5900X auch noch aktualisiert. Aber aktuell sind mir da leider die Hände gebunden.
 
TE
blautemple

blautemple

Lötkolbengott/-göttin
Danke für den Vergleich der beiden CPUs.

Mich verwundert es doch das hier die Effizienz so unterschiedlich trotz CPU Limit ist:


Der 10900K hat hier Werte zwischen 56W und 122W, warum kommt es da im CPU Limit zu solchen Unterschieden?
Beim 5900X ist das ganze ja konstanter.
Schau dir mal in den CapFrameX Daten die Auslastung der CPUs und zusätzlich die Taktraten beim 5900X an.
Der automatische Boostalgorithmus scheint sehr aggressiv vorzugehen wodurch der 5900X dauerhaft versucht das vorhandene Power Limit maximal auszuschöpfen. Prinzipiell ist das eine gute Idee, in dem Fall hat AMD es aber meiner Meinung nach etwas übertrieben.
 

Gurdi

Kokü-Junkie (m/w)
Ist das selbe Prinzip wie bei Ampere,mangelnde Auslastung der Einheiten wird mit Spannung und Takt erschlagen.
 
TE
blautemple

blautemple

Lötkolbengott/-göttin
Wo ist da der Zusammenhang mit der Auslastung der Einheiten?
Nvidia Karten, seit Pascal, haben ein Boost Ziel. Z.B. 2GHz bei 1,05V. Wenn jetzt die Last entsprechend gering ist und das Power und Temp Target nicht bremst wird die Karte dieses Ziel entsprechend erreichen. Wenn jetzt aber das Power Target durch die steigende Last nicht mehr ausreicht, oder das Temp Target erreicht wird, dann wird die Karte entsprechend runtertakten um diese zu halten.
 
G

Grestorn

Guest
Das ist mir schon klar. Ich weiß auch, dass die Karte automatisch höher taktet, je niedriger die Auslastung ist - da dann weniger Power und damit Temperatur benötigt wird.

Dennoch hat das nichts mit "mangelnde Auslastung wird mit Spannung und Takt erschlagen". Das klingt so negativ, dabei ist das nur eine logische Folge des Aufbau des Boosts.
 
G

Grestorn

Guest
Was genau ist ineffizient? Dass die Karte genau dann hochtaktet, wenn es gar nicht notwendig ist?
 

Gurdi

Kokü-Junkie (m/w)
Stell dene Karte auf eine feste Spannung und Takt und dann gehst du mal quer durch die Bank in unterschiedlichen Auflösungen durch die Games mit maximierten Powerlimit. Du wirst da Differenzen von bis zu 100Watt feststellen und bei allen Anwendungen steht 99% GPU Auslastung.
 
TE
blautemple

blautemple

Lötkolbengott/-göttin
Stell dene Karte auf eine feste Spannung und Takt und dann gehst du mal quer durch die Bank in unterschiedlichen Auflösungen durch die Games mit maximierten Powerlimit. Du wirst da Differenzen von bis zu 100Watt feststellen und bei allen Anwendungen steht 99% GPU Auslastung.
Er schreibt doch explizit von der Leistungsaufnahme. Nur weil da 100% steht heißt das ja nicht das die Shader auch richtig ausgelastet werden. Irgendwie schreibt ihr voll aneinander vorbei...
Mit dem Thema hat das aber nichts mehr zu tun ;)
 
G

Grestorn

Guest
Wenn Du durch ein Ratelimiter oder VSync die Auslastung begrenzt, bricht die Leistungsaufnahme ein, obwohl der Takt oft bis an den Anschlag geht. Eben WEIL das Powerlimit nicht erreicht wird.
 

Firehunter_93

Software-Overclocker(in)
Meiner Meinung nach lohnt sich der 5800x überhaupt nicht im Moment. Für das Geld kriegt man den 10700k + Board. Und der 10700k ist nich so viel langsamer als der 10900k. Der 5800x muss erstmal auf unter 400€ droppen, damit er überhaupt sinnvoll ist.
 

GladiusTi

PC-Selbstbauer(in)
Meiner Meinung nach lohnt sich der 5800x überhaupt nicht im Moment. Für das Geld kriegt man den 10700k + Board. Und der 10700k ist nich so viel langsamer als der 10900k. Der 5800x muss erstmal auf unter 400€ droppen, damit er überhaupt sinnvoll ist.
Der 5800x ist mMn. auch total überhypt. Habe meinen 9900k für 442€ bekommen, und das zum Release vor 2(!) Jahren.

Trotzdem toller Vergleich der beiden "Flagschiffe". :daumen: Hätte meinen 5820k wohl noch ein wenig behalten können, dann wäre der 5900x sicherlich spannend gewesen.
 
Oben Unten