AMD Ryzen 7 5800X als erster "Zen 3"-Prozessor zur UVP erhältlich

Also hier muss selbst ich mal zugunsten Intels eingreifen, wie in aller Welt kommst du dazu einen 10400 6 Kerner mit 6c/12t als eine Office-CPU zu bezeichnen?!
Das ist klar eine Mittelklasse Gamer CPU und im Moment von ihrem Preis zum 3600 als attraktiv zu bezeichnen und spielt in der gleichen Leistungsklasse.
Na weil sie nur 6x was 2,9 Ghz hat. Wir haben für eine Firma ähnliche 6 Kerner von Intel als zukunftssichere Office Rechner verhökert
Ich glaube 969,- aber ohne Liefertermin - und das ist mir im Moment zu viel. Auch wenn ich immer noch mit dem i7 3930K zufrieden war, macht der 5800x Spaß Und die 5700xt wird nicht mehr limitiert.
Also nur 19 € mehr als meiner damals. Würde ich zahlen. Aber meiner war wenigstens lieferbar. Ich habe auf den 12 Kerner gewartet. Aber da der nicht erhältlich war der 16 Kerner auf einmal schon habe ich bei den 16 Kerner zugeschlagen weil ich mir den Rechner vor Weihnachten fertig stellen wollte weil ich danach auch 3 Wochen Urlaub hatte :-)
 
Wir sind doch hier unter Optimierern, die kein Problem damit haben, Zen 3 eine Magenverkleinerung zu verpassen. :D

Da gibt es beträchtlichen Overhead, weil mehr gepowert wird, als er eigentlich nötig wäre, um konkurrenzfähig zu sein. Keine Ahnung, ob AMD dachte, dass das Käufern ab dem 5800X und aufwärts egal ist oder sie ihrer neuen Architektur selbst noch nicht ganz trauen, aber der Spielraum für Downscaling ist auf jeden Fall vorhanden.

Der kleine 5600X kommt ja ohne Handanlegen auch ganz entspannt auf die mittlere Gaming-Performance des 10900K bei 28% weniger Leistungsaufnahme.
Die wurden beide optimiert ;)
Im Teillastbereich ist Intel, bedingt durch den monolithischen Die, extrem effizient. In höheren Auflösungen, also im GPU Limit, wird der Unterschied dann noch mal extremer.
 
Igor hat ja mal gesagt, dass er die angegbenen Werte von HW Info für die Package Power, eher für völligen Unsinn in Bezug auf AMD hält.
Bitte nicht aus dem Kontext reißen. Fakt ist, dass die Angabe der Package Power von Brett zu Brett differiert, je nachdem, was die Boardhersteller da so planen. Gleiche CPU, gleiche Last:

1612469569704.png


Der Artikel lässt sich googlen ;)
 
@Bärenmarke Ich bin nicht überzeugt von deiner "Argumentation",

Könnte daran liegen, dass du keinerlei Argumentation aufweisen kannst?

denn 12 Kerne sind effizienter als 10 Kerne. Wie kann das sein?
12 Kerne mit einer anderen Architektur sind unter Vollast effizienter wie 10 Kerne, ja wie kann das nur sein? Vielleicht weil es sich um unterschiedliche Architekturen handelt?
Wenn ich etwas vergleiche, dann vergleiche ich nicht Äpfel mit Birnen. Sondern bleib bei den Äpfeln, also die gleiche Kernanzahl. Und dass du bei dem 5900X den Stromverbrauch unterschlägst, die die Kommunikation mit dem zweiten DIE verursacht disqualifiziert dich und deine Tests schon. Was du betreibst ist einfach nur unseriös.
Du greifst dir nämlich bewusst den Nachteil heraus, der AMDs Chiplet Design offeriert.

Einfaches Beispiel: ein 5950X hat in Cinebench bei gleichem PL mehr Punkte als ein 5900X, also ist der 16 Kerner effizienter. Warum ist das so?
Das ist so, weil du wohl keinerlei Ahnung hast oder nicht lesen kannst? Steht doch oben, dass für den 5950X die besseren DIEs verwendet werden, die mit weniger Spannung betrieben werden können. Ist doch keine neue Erkenntnis, dass die Topmodelle die besten DIEs abbekommen.
Jedoch, wenn man herausfinden möchte, welche Architektur die effizientere beim Gaming ist, dann nimmt man auch die gleiche Kernanzahl. Oder das jeweilige Top Modell, wo man weiß, dass die besten DIEs zum Einsatz kommen und nicht unverhältnismäßig viel Spannung anliegt.
Der 5900X ist hier nicht die beste Wahl und das bestätigen komischerweise viele Tests, woran liegt das wohl?


Die Leistungsaufnahme steigt linear mit der Kernzahl, aber quadratisch mit der Spannung.
Ich hab in Physik aufgepasst, das brauchst du mir nicht sagen. Und das, wenn man die bessere DIEs im Topmodell verwendet, dies automatisch der Fall ist, dass diese nicht so viel Spannung benötigen, sollte eigentlich bekannt und klar sein.
 
Bist du betroffen? Sind glaube ich nur 1% der Männer, die eine Rot-Schwäche haben,
Diskriminierung, und Effizienz mit s statt mit z geschrieben.^^
Wenn ich etwas vergleiche, dann vergleiche ich nicht Äpfel mit Birnen.
Intel ist der Apfel und AMD die Birne. Wenn alles vergleichbar wäre, also Kernanzahl, Taktrate, Preis, Strombedarf und Leistung, könnte der liebe Gaussmath seine Tests auch einstellen.
Intel hat unter häufig anliegender Teillast Vorteile, das könnte sich mit Alder Lake noch verbessern.
Ich würde dahingehend noch bessere Werte erwarten.
 
Zuletzt bearbeitet:
Intel ist der Apfel und AMD die Birne. Wenn alles vergleichbar wäre, also Kernanzahl, Taktrate, Preis, Strombedarf und Leistung, könnte der liebe Gaussmath seine Tests auch einstellen.
Irgend ein synchronisierendes Merkmal braucht jeder Vergleich, aber die Kernanzahl halte ich auch nicht für den besten Aufhänger. Entscheidend ist doch eher, wie viel Leistung am Ende (absolut oder für eine spezifischen Anwendungsfall) herauskommt und zu welchen Kosten und ggf. noch mit welchem Energieeinsatz diese erzielt wird.

Testverfahren und Methodik unterscheidet sich teilweise heftig, aber in einem Punkt herrscht doch Einigkeit: Über einer gewissen Mindestzahl an Cores/Threads, die man zum jeweiligen Zeitpunkt als Baseline für gescheites Arbeiten betrachten darf, ist alles offen. Je nach Anwendungsbereich setzen sich einige CPUs eher durch höhere Threadanzahl, andere eher durch höhere IPC und die nächste durch mehr Cache oder eine flottere Speicheranbindung durch.

Wenn ich mir Spiele anschaue und feststelle, dass der 10900K mit 10C/20T in der selben Liga spielt wie der 5600K mit 6C/12T, ist das legitim. Wenn ich mir Anwendungen anschaue und festestelle, dass die CPUs nicht mehr in der selben Liga spielen, ist das auch legitim. Und wenn ich mir die Preise anschaue und sie nicht in die selbe Liga stecke, ist das auch legitim.
Aber ich muss klar machen, anhand welcher Kriterien und für welchen Anwendungsbereich ich den Vergleich anstelle und mir darüber im Klaren sein, dass sich die Gewichtung der verglichenen Merkmale ändern können. Mehr Kerne/Threads können wichtiger werden, eine höhere IPC kann wichtiger werden, Preise können sich verändern.
 
12 Kerne mit einer anderen Architektur sind unter Vollast effizienter wie 10 Kerne, ja wie kann das nur sein? Vielleicht weil es sich um unterschiedliche Architekturen handelt?
Wenn ich etwas vergleiche, dann vergleiche ich nicht Äpfel mit Birnen.
Wie soll man denn dann bitte jemals CPUs von unterschiedlichen Herstellern vergleichen, wenn man immer Äpfeln mit Äpfeln vergleichen soll? Ein Mindestmaß an Logik und Realismus ist eigentlich Voraussetzung für mich, um in eine Diskussion einzusteigen. Dein gesamter Beitrag ist dermaßen hanebüchen, du solltest dich wirklich mit anderen Dingen beschäftigen.
Und dass du bei dem 5900X den Stromverbrauch unterschlägst, die die Kommunikation mit dem zweiten DIE verursacht
Wieso sollte ich das unterschlagen haben? Ich habe es in genau diesem Thread erwähnt. Und darüber hinaus, warum sollte das ein Problem sein? Was kann ich ich dafür, wenn AMD ihre CPUs so designen? Diese "Kritik" ist völlig absurd.

Was du betreibst ist einfach nur unseriös.
Was du schreibst ist völlig in den Haaren herbeigezogenes Zeug.

Du greifst dir nämlich bewusst den Nachteil heraus, der AMDs Chiplet Design offeriert.
Wie gesagt, ich verwende schlicht und einfach eine CPU, die so designed ist. Uuuuhhh... und nun?

Steht doch oben, dass für den 5950X die besseren DIEs verwendet werden, die mit weniger Spannung betrieben werden können.
Das ist genau so dummes Zeug wie der Rest. Belege dafür bitte! Ich habe mal auf Twitter gebeten, dass jemand einen 5950X auf 12 Kerne konfiguriert und dabei nicht die besseren Kerne (Gold und Silver) abschaltet.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die erreichte Punktzahl liegt sogar unter der eines 5900X. Der User schreibt auch im Folgenden, dass sein 2. CCD eher eine schlechtere Qualität aufweist, was sich in den Taktraten wiederspiegelt.

Was ist nun mit deiner "bessere CCDs" Theorie? Mein Güte, ich habe wirlich selten so viel Bockmist auf einen Haufen gesehen wie in deinem Beitrag. Peinlich!
 
Zuletzt bearbeitet von einem Moderator:
Fakt ist, dass die Angabe der Package Power von Brett zu Brett differiert

...

Der Artikel lässt sich googlen ;)
Ich sehe vor allem, das MSI wieder vieles richtig macht. Denn bei aller Bewertung der CPU dürfen wir auch nie das Board außer acht lassen. Die Unterschiede der automatischen Übertaktung, der Spannungen und des Powerlimits sind augenfällig.
 
Auffällig ist auch, dass das bei einer praktisch normalisierten Taktrate - um ein paar Mhz muss man nicht streiten - auftritt. Sprich, wenn man das "falsche" Board erwischt und die Einstellungen nicht korrigiert, wird da mehr verblasen, als eigentlich nötig wäre.
 
Peinlicher gehts wohl kaum oder? Was ist daran nicht zu verstehn dass die UVP bereits Wucherpreise sind und man vom UVP noch mal so 10-20% abziehn muss um beim normalen Preis zu landen? Auch immer zum "Saturn-Preis" gekauft?
Und das war ein klassischer Wurstkuchen..
Aber die UVP von Intel die zahlt er gerne... Oh Wait der 10850K liegt bei 480€ :o
Leg mal ne andere Platte auf.. Ich wette aber gerne mit dir, ob RKL der Preisbrecher wird.. die bekannten Listen sagen bisher nein..

@gaussmath
es wird nicht richtiger mit deinen Vergleichen. Ich erinnere da nur an dein Fail das letzte Mal. Igor also FormatC hat die wesentlich glaubwürdigeren Werte und ich hab übrigends exakt mit deinem CapFrameX und nun 10700F, meinem 3600 und einem 1600 mal den Vergleich gemacht und oh, wunder, die Software Lösung die Verbräuche zu berechnen taugen nicht das Papier, auf denen sie stehen.. Aber das weisste ja, weil du es immer wieder betonst. Wieso machst du das nicht auch mal, wenn du hier etwas postest? Das macht dich am Ende vllt sogar Seriös?!
Ach ja Igor sagte es schon oft genug. Es kommt aufs Board UND auf die Software an. Und da hinkt dann auch dein Vergleich mit dem billigen Z490 Brett, was an sich schon ein Armutszeugnis ist, dass der Marktführer hier immer noch die Kunden beschneidet, bzw damals das OC des Ram einfach verbot. Intels Wall of Shit kann AMD auch in 30 Jahre nicht aufholen. Dazu müsste sich dieses Unternehmen um 180grad drehen. Und das sage ich als Person, die nur nach P/L kauft. Hättest du gesagt, AMD ist derzeit zu teuer, wegen Corona hätte dir keiner Widersprochen. Der Rest war unnötig und lässt sich höchstens auf deine Ergebnisreihe Extrapolieren. Igors Messwerte sind da dann doch genauer.
 
Zuletzt bearbeitet:
Das Problem liegt hier allerdings eindeutig auf Seiten der Motherboardhersteller.

Zum einen sind günstige Lösungen, wo Boards auf Inductor DCR statt MOSFET DCR setzen klar im Nachteil, denn da hat man schon fette Schwankungen innerhalb einer Modellreihe - 3 Boards, 3 verschiedene Werte bei ansonsten identischen Komponenten und selber CPU. Dazu kommen die Spannungswandlerverluste, die oft mit inkludiert werden. Das wird nichts Exaktes, leider. Das Elend hatte ich ja weiter vorn in meiner Tabelle.

Darüber hinaus sind manche Hersteller natürlich auch notorische Cheater. Mit leicht zu niedrig angesetzten Werten beim ermittelten Stromfluss (alles im Toleranzbereich, aber hier macht es die Summe für die es keinen Grenzwert gibt), verarscht man die Telemetrie (PBO) und überpowert die CPU ein wenig. Diese wird dann aus unerklärlichen Gründen auf Brett A heißer als auf Brett M, taktet aber auch einen Tick höher. Kunde: Ja, der Hersteller A ist einfach besser und der OC-King. Nö, ist er nicht, nur cleverer beim Cheaten. :D

Kleiner Nachtrag:
Nachdem das Moderationsteam meinen 14 Jahre alten, privaten Account gegen meinen audrücklichen Willen aus "Transparenzgründen" auf einen Firmenaccount umgestellt hat, werde ich hier in dieser Forum nichts mehr posten, kann es ja nicht einmal mehr. Ich bin weder Hersteller noch Dienstleister und kann auch keinen Support leisten. Und als nunmehr offiziellem Vertreter von igorsLAB fehlt mir auch die Möglichkeit, als normaler Forenuser an Diskussionen teilzunehmen, weil es merkwürdig aussehen würde. Danke dafür, aber es war nicht meine Entscheidung, :(
 
Zuletzt bearbeitet von einem Moderator:
@Unrockstar85 Für dich zum Mitschreiben:

Wir haben die Werte gegen ein externes Strommessgerät verglichen und auch bei physikalisch korrekten Messungen kann was schief laufen.
Dazu kommen die Spannungswandlerverluste, die oft mit inkludiert werden.
Wo und wie das denn? Hab ich noch nie erlebt bei Ryzen. Dann müsste die PPT ja bei über 142 Watt liegen bei Volllast.
 
Nachdem das Moderationsteam meinen 14 Jahre alten, privaten Account gegen meinen audrücklichen Willen aus "Transparenzgründen" auf einen Firmenaccount umgestellt hat, werde ich hier in dieser Forum nichts mehr posten, kann es ja nicht einmal mehr.
Das "igor'sLAB" stört dich, aber dein offizielles Maskottchen als Avatar geht klar? :D
 
Zurück