Phenom II X6 im Praxis-Test: Diese Spiele profitieren von sechs CPU-Kernen

Hey Leute,
wie oft denn noch?
Es gibt Leute wie mich die mit 3D Programmen arbeiten und da kann man nicht genug Kerne zum rendern haben! Spielen ist bei mir ein netter Nebeneffekt!
Ich bin aber auch nicht bereit fast nen 1000er für eine CPU von Intel auszugeben!
Für das Geld kann ich mir 2 PCs mit 6 Kernern zusammenbauen und im Verbund als Mini Renderfarm trete ich den Intels kräftig in den Arsch da ich 12 reelle Kerne habe!
6 Kerne lohnen sich auf jeden Fall heute schon und nicht erst in 1-2 Jahren wie viele meinen und hier felsenfest behaupten!:ugly:
 
zur zeit reichen 4 kerne locker aus. wer sechs braucht, soll sie sich kaufen.
naja zumindest ist man zukunfts sicher :schief:
hab nem freund einen 1055T+asus m4a89gtd pro/usb3 zusammen gestellt, teile sollten morgen da sein
der bringt zwar mom weniger leistung als ein I7 in spielen, aber da er die cpu 5 jahre nutzen wird ist er mit nem hexa besser bedient ;)
kann die leute nicht verstehen die mit ner uralt cpu zocken und daran spaß haben, ich brauch immer das neuste is irg-wie ne sucht :D
edit;
Hey Leute,
6 Kerne lohnen sich auf jeden Fall heute schon und nicht erst in 1-2 Jahren wie viele meinen und hier felsenfest behaupten!:ugly:
für Gamer aber eher nicht ;)
 
kann man eigentlich auch zwei kerne per bios deaktivieren und so aus dem hexa einen quad machen, damit diese dann wirklich 4x1,5MB level3 zur verfügung haben? weil solange die hexcores nix wirklich bringen in games, würd ich lieber einen 955 quad haben wollen und in 2 jahren dann die restlichen 2 cores wieder aufwecken. ist der strombedarf eigentlich niedriger wenn man 2 cores per bios deaktiviert oder werden die nur vorm betriebssystem softwaretechnisch versteckt, aber strom brauchen sie trotzdem? (und idlen halt vor sich hin oder?)
danke
 
Deaktiviert man auf dem 1090T zwei Kerne und den TC, ist er im Rahmen der Messungenauigkeit so flott wie ein 955 BE. Geht bei einigen Boards auch per BIOS.
 

Meine Meinung: Der erste - der Prozessor - bekommt Daten, rechnet wie blöd um es an den zweiten - die Graka - weiterzureichen, und dieser [der zweite] wiederum rechnet ebenfalls das Maximum AUSSER man haut manuell die Bremse bei der Graka rein.

(Und 800*600 an sich halte ich auch für ok, so denn die CPU mit maximalen Details und allem anderen zu stressen, da ja an sich die Auflösung für den Prozessor keine Rolle spielen dürfte)

Dennoch existiert diese Theorie, ebenso wie die Theorie, dass die aktuellen Intel-Plattformen bei (den) PCIe-Anbindung(en) "überfordert" sind, so denn es an hohe PCIe-Last geht.

Sprichst du von CB? Die verwendeten vor der HD5870 eine GTX+, wir aber eine GTX285.

Jein, eher von den Kommentaren: Hier wurde eben dieses ja auch "diskutiert", dass die 800*600 ja nutzlos wären, da auch mit einer [deutlich] stärkeren Graka AMD bei Grafiklimit immer vor Intel liegt ...

Irgendwie schwirren [mir] da zuviele Gerüchte und Gegengerüchte etc. herum, als dass man hier ohne einen wirklich aussagekräftigen, offiziellen Bench/Artikel/o.ä aufm Trockenen sitzt...

Und in der Hinsicht wär ich v.a. in Bezug auf den Sechskerner mal auf eine komplette Beleuchtung der Thematik
 
kann man eigentlich auch zwei kerne per bios deaktivieren und so aus dem hexa einen quad machen, damit diese dann wirklich 4x1,5MB level3 zur verfügung haben? weil solange die hexcores nix wirklich bringen in games, würd ich lieber einen 955 quad haben wollen und in 2 jahren dann die restlichen 2 cores wieder aufwecken. ist der strombedarf eigentlich niedriger wenn man 2 cores per bios deaktiviert oder werden die nur vorm betriebssystem softwaretechnisch versteckt, aber strom brauchen sie trotzdem? (und idlen halt vor sich hin oder?)
danke

Bisher war es leider so bei den Triple Cores von AMD (die ja nur nicht funktionsfähige Quad-Cores sind), dass trotz des "abgeschalteten" Kerns mehr Strom verbraucht wurde, als es erwartet wurde. Der Kern wird also tatsächlich weiterhin mit Strom versorgt, auch wenn er nur im Leerlauf mitläuft. Das ist beim Verbrauch folglich sehr nachteilig. War für mich damals das K.O. Kriterium für den Triple Core und habe statt dessen eine Quad-Core CPU von Intel bis an die Grenze undervoltet. Spart am Ende mehr, bei höherer Leistung.
 
Ich find ein X6 lohnt sich durchaus.
Erstmal sind AMDs CPU ohnehin schweine günstig, da würde sich für mich nicht die Frage stellen ob X6 oder ein X4.
Klar gibt es genug Leute, die bei 40-120€ mehr überlegen müssen, was sie sich kaufen (X4 oder X6), doch ist der Mehrpreis für eine AMD X6 CPU, ist nicht wirklich überteuert.

Es ist zwar ernüchternt, dass grade GTA4 so garnicht von den 2 extra Kernen profitiert,
aber umso mehr nutzt scheinbar BFBC2, auch in der regulären 22" Auflösung, die zwei extra Kerne und zeigt, dass durchaus auch für Spieler ein X6 von nutzen sein kann.
Wenn ich seh wie oft im MP 10fps mehr über Leben und Tod entscheiden...
da wäre für mich der Fall klar was ich kaufe. :D

Die Frage ist nur, ob AMD diese X6 nochmal in 32nm bringen wird zum Jahresende.
 
6 Kerne ...als PC Spieler würde ich sagen...zur Zeit lieber eine richtig schnelle Grafikkarte...und die CPU hat bestimmt noch OC Reserven..


:D
@Hugo78 10FPS retten dir auch nicht das Leben...wer ungeübt spielt kann auch 6x 10GHz und Quad SLI haben...trotzdem wird er nicht besser sein.
 
Zuletzt bearbeitet:
Och ich hab ne K/D von über 2.0 , und dennoch ab und an, da könnte ich noch 10fps mehr vertragen. :)
 
Also wenn ich mir das so anschaue, komme ich nur zu einem Fazit.

Aktuelle CPU`s sind einfach zuschnell, und die Grakas zu langsam.
 
Ja, seit den Core 2 und den Core i gibt's CPU-Power aber die GraKa-Leistung hechelt hinterher. Nicht absolut gesehen, aber in Relation zu dem was Spiele fordern, zudem ist eine GraKa dank hohen Auflösungen und AA/AF viel schneller "tot" zu kriegen.
 
Zurück