Mephisto_xD
BIOS-Overclocker(in)
Das wird dem Bulli aber nicht gerecht. Bulli war für seine Fertigungsprozess (32nm) richtig gut. Klar, in irgendwelchen dubiosen Benchmarks unter Volllast (Belastung aller Kerne zu 100%) war der Verbrauch hoch, aber runtergerechnet auf FPS war der Bulli gar nicht mal so schlecht. In manchen Benchmarks (wenigen) sogar sparsamer als Intels Konkurrenz. Ich rede vom 8350. Wenn man die Benchmarks genauer angeschaut hat dann stellte sich heraus, dass der Bulli sich meist langweilte, weil er seine Leistung gar nicht auf den Boden bekam. Wenn Du ein Spiel hast, was Single-Core-lastig ist, dann langweilen sich die meisten Kerne. Und weiter muss gesagt werden (CB hat es mal getestet) gab es einen massiven Unterschied zwischen den am Anfang gefertigen Bullis und denen die zuletzt vom Band liefen. Da gab es Unterschiede von bis zu 70W eben in diesen dubiosen Max-Szenarien, die fast nie passieren.
Das sind alles Details aber meist interessiert das niemanden aber es gab User die das beobachtet hatten und in Foren gepostet hatten. Die Intel-Schwätzer haben natürlich wie immer nur "buuuh" gerufen ohne irgendwas zu verstehen.
Mag sein. Ich erinnere mich an die erste Generation von Bulldozer (8150 glaube ich?), auf den ich damals wechseln wollte, dann aber feststellen musste, dass mein guter alter Phenom II X6 in der Hälfte der Anwendungen schneller war. Halt alle, die nicht auf allen 8 Kernen nur Integer Leistung verlangten. Und das trotz geringerem Takt.
Bulli war super für Encoding und Verschlüsseln. Da konnte er sich sogar mir Sandy-Bridge anlegen. In Spielen hingegen....