Bulldozer: AMD-Folien zeigen Benchmark-Performance und Preisgestaltung

Meiner Meinung nach bleibt das Netzteil der größte "Energievernichter".

Deswegen sind vor allen Rechenzentren auf der Jagt nach effizienteren PSU´s.

bei einem voll ausgefahrenem 600Watt Netzteil (600 Watt Last) und 90% Effizienz sind das meiner Rechnung nach 666,666666. Watt die das Netzteil aus der Steckdose saugt. 66,666.. Watt nur verheizt.

Und da streitet man sich über 30Watt von 95 zu 125 Watt.


Wenn du 667W aus der Dose ziehst, so wird diese Leistung zu 100% in Wärme umgesetzt. Und mit 90% Effizienz ist ein Netzteil GPU und CPU unglaublich überlegen. Ich sag dir auch warum.
Bei heutigen CPUs zum Beispiele, die 100W bei Last in Wärme umwandeln, sind sicherlich 90% absolut unnötig.
Die Rechenleistung, die damals beispielsweise (vor <10 Jahren) 60W CPUs lieferten, schaffen heute Chips, die weniger als 10W ziehen.
 
@ Nocuta
Ahh,
hast du das nachgemessen?

Und wenn ja mit nem Taschenrechner: 135-90= 45 ;)

Oder doch eher mit einem Messgerät:daumen:

Sag mir jetzt bitte nicht du hast das am Stromzähler, abgelesen AMD im Winter, Intel im Sommer.:ugly:

@ FreezerX
Das war rein theoretisch.

Und der Vergleich von "uralt-Hardware" von vor 10 Jahren mit heutigen Produkten...
Schaut euch doch nur mal die Fertigungsgrößen an 300nm gegen 32nm. Sieht das schon sehr Fair aus. :ugly:
 
Zuletzt bearbeitet:
Der FX-8100 hat nur 95W TDP und wäre damit recht interessant, allerdings ist der FX-6100 wahrscheinlich taktbedingt in den meisten Spielen schneller unterwegs.
 
Das ist nicht fair, aber muss es auch nicht sein:) Bei Netzteilen hast du noch ein Potential von 10%. Ich will sagen, dass das Potential von Leistungskomponenten noch viel höher ist.

Du vergleichst auch die 67W Verlustleistung deines fiktiven Netzteils mit ~30W beim Prozessor. Dann überleg dir mal, wie man auf 600W benötigter Sekundärleistung kommt. ;) Mit 2CPUs und 2 Grafikkarten zum Beispiel, und wenn du bei jeder Komponenten 30W "verschenkst", landet man bei 120W Sparpotential. Und die Leistung des 600W Systems wird man auch in kurzer Zeit mit (fiktiv) 450W Systemen bekommen.
 
Ich rede bei der Fairness auch über die Fertigungsgröße und den 4 Jahre Technikvorsprung:devil: von Intel.:ugly:

Bei einer 125 Watt CPU sind es 13,88888... Watt Verschwendung.
 
Da mittlerweile relativ klar ist, wie Preisgestaltung und Leistung aussehen, werde ich mir wohl einen BD holen.
Im Falle des Crosshair IV Formula sollte der ja draufpassen.

Bezüglich der Stromdiskussion: Selbst wenn die 25 EUR vermutlich falsch sind, kann man wohl davon ausgehen, dass BD mehr Strom frisst als SB. Theoretische Rechenbeispiele hin oder her, das wird wohl so sein.

Die Kosten hätte man (ich) allerdings schneller an anderer Stelle gespart; ist für mich in diesem Fall also nicht ausschlaggebend.

Ich hoffe ja, dass SB nach Erscheinen von BD ebenfalls im Preis fällt. Gibts dazu schon Anzeichen?
 
Ich hoffe ja, dass SB nach Erscheinen von BD ebenfalls im Preis fällt. Gibts dazu schon Anzeichen?

So wie ich Intel kenne eig. nicht... da müsste AMD schon einen enormen Kampfpreis fahren, das Intel da was macht... die Preise werden höchstens Händlerbedingt um 5-10€ schwanken .
Und da AMD auch geld verdiehnen will, werden sie ihr Topmodell nicht für 200$ verscherbeln(das wäre ein enormer kampfpreis)
 
das ist schon traurig das AMD seine CPU´s an den Intel I5 testet und vergleicht.... wen die 8Kerne/8 MiB habe dan erwarte ich auch mehr leistung und nicht nur 20%!!
 
@ Nocuta
Ahh,
hast du das nachgemessen?

Und wenn ja mit nem Taschenrechner: 135-90= 45 ;)

Oder doch eher mit einem Messgerät:daumen:

Sag mir jetzt bitte nicht du hast das am Stromzähler, abgelesen AMD im Winter, Intel im Sommer.:ugly:

Willst du mich für blöd verkaufen? Natürlich habe ich das nachgemessen, mit einem Energiemessgerät zwischen Steckdose und PC. Daher sind die beiden Werte auch nur für den kompletten PC. Da sich aber die restliche Hardware nicht geändert hat, kann man sagen, dass der Wechsel von PII X4 + AMD 870 zu i5-2500k auf P67 diese Ersparnis gebracht hatte.
 

Jop der Preis geht wieder hoch ... warum wohl:schief: ... aber das ist gut für AMD, dann brauchen sie Bulli nicht noch billiger machen.
 
@ Nocuta

HoHoHo,

das sollte nicht beleidigend sein.

Was außer CPU und MoBo wurde gewechselt?

Was hast du genau gemessen?

Welche GraKa hast du?

Was hast du zum Auslasten genutzt, wenn du ausgelastet hast.

Welches OS?

Da erscheinen mir 135 zu 90 Watt sehr Wage. Für PC komplett (und Monitor, Boxen??)....?



Entschuldige wenn ich das anzweifele.

Wie hast du gerechnet?

Den Monitor gemessen und abgezogen? Wäre ja in Ordnung.

Ansonsten sind diese Werte nicht nachvollziehbar.

Und bitte, selbst wenn ich dich verärgert habe, ein freundliches Hinweisen das die Smylis nicht sichtbar sin tut es doch auch. ;)
 

Glaube das liegt zum größeren Teil am Wechselkurs. Denn zwischen April und August lag der Wechselkurs bei im Schnitt 1,43€/$ und nun ist er bei 1,35€/$ mit noch fallender Tendenz.
 
@ Nocuta

HoHoHo,

das sollte nicht beleidigend sein.

Entschuldige wenn ich das anzweifele.

Wie hast du gerechnet?

Den Monitor gemessen und abgezogen? Wäre ja in Ordnung.

Ansonsten sind diese Werte nicht nachvollziehbar.

Und bitte, selbst wenn ich dich verärgert habe, ein freundliches Hinweisen das die Smylis nicht sichtbar sin tut es doch auch. ;)

Hier kannst du dich auch überzeugen ...http://www.au-ja.de/review-intel-core-i7-2600k-core-i5-2500k-30.phtml
 
ist es nicht lustig, wie sich hier manche Leute gedanken machen, ob der Bulli nun für 10,- oder 20,- € im Jahr mehr an Strom verbraucht wie die SB 2500K oder 2600K von Intel.

Hallo Leute, in euren Powergeräten stecken Grakas´s die im Winter locker die Bude heizen können, wie HD 6990 oder Nvidias 580, dass ganze wohlmöglich noch im SLI oder Crossfire System, daneben dann ein 800 oder 1.000Watt Netzteil mit dicker Soundcarte. Das ganze nur damit dann mit maximaler Auflösung bei 100FPS und mehr gezockt werden kann.

Wenn interessiert da noch der Verbrauch der CPU, wenn der Rest alles locker verbrät.

Ich glaube mal kaum, dass ein Intelaner der einen SB 2600K montiert hat, auch mit der integrierten Graka spielt, oder.


Gruß
 
ist es nicht lustig, wie sich hier manche Leute gedanken machen, ob der Bulli nun für 10,- oder 20,- € im Jahr mehr an Strom verbraucht wie die SB 2500K oder 2600K von Intel.

Wenn der FX 20€ mehr im Jahr kostet als ein 2600k, dann verate mir, wozu dann ein FX für 200€ kaufen ? (in 2 Jahren 40€, in 3 Jahren 60€) das ist eine Berechtigte Frage bei der ganzen Sache.
Und wenn man sich 2x gtx580 sLi einbaut, hat diese Frage trotzdem eine Berechtigung. Weil im endefekt beide CPUs das gleiche kosten, nur das eine davon eine hörere Leistung hat.

Vieviele Kerne hat diese CPU?

2C/4T (2 Module/Cores und 4 Threads , wie ein i3 von Intel)
 
Zuletzt bearbeitet:
Zurück