Wenn ich micht Recht entsinne, war Bulldozers größter Kritikpunkt die richtig miese Effizienz gegenüber Intel.
Der Hauptkritikpunkt war einfach die unglaublich miese Leistung. Die Stromaufnahme interessiert die meisten nicht. Wenn der FX 8150 damals mit den Sandy Bridge E den Boden aufgewischt hätte oder mit den 8 Kernern zumindest noch irgendwie mitgehalten hätte (wie es ursprünglich mal geplant war), dann hätte er sich auch 250W genehmingen können. Das wäre zwar nicht schön gewesen, aber dafür hätte man auch ordentlich Leistung erhalten und AMD wohl mindestens 500€. So kam es aber nicht, in Spielen war es eine einzige Katastrophe und auch in Mehrkernanwendungen hat schon der i7 2600K im Schnitt die Nase vorne gehabt, obwohl er nur halb soviele Kerne hatte, wie der eigentliche Gegner.
Vor allen Dingen: Was soll das? Eine CPU kann nur in Leistung pro Watt objektiv bewertet werden.
Dann würden die Desktop CPUs aber haushoch gegen die Laptop und Energiespar CPUs verlieren. De Rohleistung ist natürlich auch wichtig. Der doppelte Verbrauch für 3% mehr Leistung wäre in der Tat mehr als mies, aber bei 105W zu 125W kann man noch ein Auge zudrücken.
Die einzigen Chips, die man sich ansehen kann, sind die i5. Den Rest kannst in die Tonne treten. Der 11900k wird vom 10900K/10850K durchweg geschlagen. Was soll daran gut sein?
Laut PCGH nicht und die CPUs werden mit schnellem RAM noch schneller. Schlecht sind sie nicht, es kommt nur noch auf den Preis an.
Ansonsten ist die starke IGP und vorallem AVX 512 sehr interessant.
Bulldozer war in Spielen mal vorne, mal hinten gegenüber Phenom, genauso wie Rocket Lake vs Comet Lake.
Der große Unterschied ist, dass heute alles sehr Eng beieinanderliegt. Vorallem kann sich AMD gegenüber Intel, nicht einfach mal um 20-50% in Spielen absetzen, von daher ist der Vergleich nicht richtig.
64 Atomkerne? Sowas gibts nicht !
Meines Wissens gab es Server, die das hatten.
Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!
Na dann nehmen wir doch den 3500X, den gibt es immerhin auch noch. Bei einem heutigen Hardwarekauf interessiert mich auch eher das Jahr 2024-26.
Alles abhängig vom Betrachtungswinkel.. Die MISCHUNG macht es !
Von einer Mischung war bei dir nicht die Rede:
CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!
Eine gesetzliche Regelung kommt halt meist dann, wenn die Industrie maßlos wird. Und wenn eine 125W CPU 400W schluckt, dann kann man davon schon reden. Ich kann weder bei GPUs noch bei CPUs diesen Verbrauchsmonstern viel abgewinnen. Es vergeudet Energie und der Aufwand die Dinger zu kühlen explodiert.
Kauf ihn dir einfach nicht - Fertig!
Was interessiert dich der Verbrauch von Intel, wenn du sowieso AMD nimmst?
Keiner zwingt dich, einen i9 10900K zu nehmen und ihn dann auch noch von der Leise lassen. Das ganze interessiert sich auch nur, weil dein Lieblingskonzern ein Problem damit hat. Wenn der R9 6950X, mit 32 Kernen, dann seine 250W benötigen sollte, dann wird man da nichts mehr hören.
Selbst wenn man 100W für GPU und CPU festlegen würde, dann käme man immer noch in Leistungsbereiche die vor 5 Jahren noch High-End waren.
Die Erfahrung hat gezeigt: wenn reguliert wird, dann richtig übel. Man hört ja auch keine Forderung nach Tempo 200 auf der Autobahn, über 130 geht bei den Verbotsmenschen nichts. So wird es auch bei CPUs sein. Wer glaubt, eine Regulierung würde ihn ungeschoren lassen, der irrt sich.