• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

[AMD A10-5800K] auf [GIGABYTE F2A85X-UP4] im Review

der8auer

Moderator, der8auer Cooling & Systeme
gbt review.png

Bereits vor einigen Tagen erlaubte AMD die Veröffentlichung von Benchmarks der neuen HD 7660 D der A10-5800K APU. Letzten Donnerstag habe ich selbst schon einen Kurzbericht der Grafikeinheit veröffentlicht. Nun reiche ich den vollständigen Test inklusive eines Reviews des neuen GIGABYTE F2A85X-UP4 Mainboards nach. Viel Spaß beim Lesen!


Inhaltsverzeichnis:

  1. GIGABYTE F2A85X-UP4 Review:
  2. AMD A10-5800K Test:
  3. Fazit






Testsystem (AMD FM2):

  • GIGABYTE F2A85X-UP4
  • AMD A10-5800K (HD 7660 D)
  • 2 x 2 GB G.Skill Pi Series 2400 CL9
  • Scythe Katana 2
  • Diverse Grafikkarten

Testsystem (AMD AM3+):

  • GIGABYTE 990-FXA-UD5
  • AMD FX-8150
  • 2 x 2 GB G.Skill Pi Series 2400 CL9
  • Scythe Katana 2
  • Diverse Grafikkarten

Testsystem (Intel 1155):
  • GIGABYTE Z77X-UP5 TH
  • Intel i7-3770K (HD 4000)
  • 2 x 2 GB G.Skill Pi Series 2400 CL9
  • Scythe Katana 2
  • Diverse Grafikkarten

Details zu Treiber und Software:

  • Nvidia 306.23 WHQL
  • Catalyst 12.8
  • Windows 7 x64
  • 3DMark 11 1.03
  • Cinebench 11.5
  • Crysis (Integrierter Benchmark über Benchmarktool)
  • Lost Planet 2 Benchmark
  • wPrime 1.55
  • 3DMark2006




1. GIGABYTE F2A85X-UP4 Review:
Lieferumfang:
  • GA-F2A85X-UP4
  • Handbuch (englisch)
  • Quickstart-Guide (mehrsprachig ; auch deutsch)
  • Treiber-CD
  • I/O Blende
  • 6 x SATA Kabel unterschiedliche Längen und gewinkelte Stecker
  • GIGABYTE Sticker


Impressionen des Boards:
Das GIGABYTE F2A85X-UP4 kommt im schlichten Design und mit allem nötigen Zubehör daher. Das PCB ist matt schwarz gehalten und auch die Kühlkörper für Chipsatz und Spannungswandler sind schwarz lackiert. Die aktuelle UP Serie von GIGABYTE bietet sehr kühle Spannungswandler, welche selbst bei Overclocking nur handwarm werden. Alle SATA Ports sind gut erreichbar und auch eine lange Grafikkarte verdeckt keinen Anschluss, da alle nach "hinten" ausrichtet sind. Ein weiteres Feature ist die Debug-LED, welche beim Bootvorgang evtl. auftretende Fehler anzeigt und so die Fehlersuche deutlich erleichtert. Für Benchmarker oder alle die einen offenen Aufbau verwenden wurde das Board mit Start, Reset und CMOS-Clear-Tastern ausgestattet. Positiv erwähnt sei, dass im Vergleich zu den letzten GIGABYTE Boards nun der Resettaster weiter vom CMOS-Clear-Taster entfernt liegt und so keine Verwechslungen mehr passieren.




Technische Details:

tech.png

BIOS Screenshots:
Wie alle aktuellen GIGABYTE Boards bietet auch das F2A85X-UP4 ein übersichtlich gestaltetes 3D-Dual-BIOS. Im Fall einer falschen Konfiguration oder einem Fehler beim Flashen des BIOSes kann so problemlos auf das Backup BIOS zugegriffen werden, um das Main BIOS wiederherzustellen. Bis auf eine Option zum Abschalten der einzelnen Kerne vermisste ich kein Feature im BIOS. Ich habe gestern (Stand 02.10.12) allerdings schon eine neue BIOS Version erhalten, welche dieses Feature ebenfalls bietet.




2. AMD A10-5800K Test:
Technische Details:

cpus.jpg


Mit weiteren Details will ich euch nicht langweilen. Wer mehr wissen will kann sich gerne HIER belesen :)


CPU Benchmarks
7-Zip Komprimieren

Für den 7Zip Leistungstest habe ich den 6191 MB großen Spieleordner von Crysis mit 2017 Dateien komprimieren lassen. Intel arbeitet hier deutlich effizienter und bei AMD hilft ein höherer Takt deutlich mehr, als eine größere Anzahl von Kernen.​
2.png

Der Cinebench 11.5 CPU Test ist ein multithreaded Benchmark weshalb der 3770K erneut glänzen kann - gefolgt vom FX-8150. Der i3-2100T hat nur 2 native Kerne + HT und bildet das Schlusslicht.​
3.png

Lost Planet 2 skaliert sowohl auf Kerne, als auch auf eine höhere Taktrate. Gepaart mit der GTX580 macht allerdings auch der A10-5800K eine gute Figur und es kann flüssig gespielt werden.​
6.png
Crysis CPU Benchmark
Anders als Lost Planet ist Crysis stark GPU limitiert. Alle CPUs im Test ermöglichen es Crysis selbst bei hoher Auflösung und Details zu spielen - vorausgesetzt man verwendet eine potente Grafikkarte.
5.png

Der synthetische Benchmark 3DMark 2006 skaliert ebenfalls auf Mehrkernprozessoren und natürlich hohen Takt. Die Reihenfolge ist dementsprechend leicht abzusehen.
4.png

wPrime1024m ist einer der anspruchsvollsten 2D Benchmarks und lastet die CPU über die komplette Dauer zu einhundert Prozent aus. Ein gutes Tool, um auf maximale Abwärme und den Verbrauch zu testen.
1.png



GPU Benchmarks

diagramm-png.587351


Cinebench 11.5 OpenGL

Zumindest für mich überraschend: Hier konnte die AMD APU sogar die GTX580 hinter sich lasen. Die Grafikeinheit des A10-5800K skaliert sehr gut mit höherem RAM-Takt. DDR3-2133 ist also fast Pflicht, um keine Leistung zu verschenken.
8.png



Im 3DMark2006 zeigen die dedizierten Grafikkarten wieder ihre Stärken. Allerdings ist bereits die GTX260 etwas CPU limitiert. Mit der GTX580 stößt die AMD APU an ihre Grenzen.
10.png
Auch wenn die angezeigten FPS nur bei der GTX580 im spielbaren Bereich liegen hat mich die HD 7660 D positiv überrascht und konnte sogar die 8800 GT hinter sich lassen.
9.png

Hier ist deutlich sichtbar, dass die Grafikeinheit des A10-5800K stark bandbreitenlimitiert ist. Übertakten um 200 MHz bringt nur einen sehr geringen Zuwachs an Frames.
11.png

Kommen wir zum interessanten Teil - der 3D Effizient. 3770K und A10-5800K haben bei aktiver Grafikeinheit unter Last einen ähnlich hohen Verbrauch. Allerdings liegt hier AMD deutlich vor Intel.
12-png.588460


Für dieses Diagramm habe ich die Ergebnisse des Lost Planet 2 Benchmarks mit den Kosten der CPUs verglichen. Wer die interne Grafikeinheit verwenden möchte ist mit dem A10-5800K nicht nur günstiger dabei, sondern erhält auch eine größere Gesamtleistung.
13-png.588461

Overclocking
Das Overclocking ist auf dem F2A85X-UP4 sehr einfach und gleicht zu 90% den Bulldozer CPUs. Wie ihr bei den oberen Benchmarks sehen könnt, habe ich die CPU auf 4200 MHz und 4500 MHz für 24/7 Betrieb übertaktet. Bei CPU Spannung auf "AUTO" lagen unter last 1,432 Volt an (3800 MHz). Ich konnte allerdings für 4200 MHz die Spannung sogar auf 1,3675 Volt absenken und die CPU lief somit kühler und trotzdem schneller. 4500 MHz sind bei humanen Temperaturen immer noch problemlos möglich und liefen bei mir mit 1,440 Volt stabil. Da ich bisher keine anderen Overclocking Ergebnisse dieser CPU kenne, kann ich leider nicht abschätzen, ob dies ein guter Wert ist oder nicht.
Der A10-5800K lässt sich dank freiem Multiplikator bequem ohne Erhöhen des Referenztaktes übertakten. Im BIOS ist ein maximaler Multi von 70 angegeben, was selbst LN2-Overclockern auf jeden Fall ausreicht. Einen Test des maximalen Referenztaktes werde ich in den kommenden Tagen nachliefern.

Besonders die Grafikeinheit der APU skaliert sehr gut auf hohen RAM-Takt. Mit 1866 MHz bootet das System ohne Probleme und auch 24/7 stabil ohne jegliche Spannungsänderung. Für 2133 MHz Speichertakt musste ich die NB-Spannung der CPU allerdings um 0,05 Volt auf 1,250 Volt anheben. Auch dies ist kein Problem für den Alltagsbetrieb.

Auch die HD 7660 D lässt sich problemlos über das BIOS übertakten, allerdings skaliert die Grafikeinheit auf oc des Kerntakts nicht so stark wie beim RAM-OC. 900 MHz - also eine Steigerung um 100 MHz ist auch ohne Spannungserhöhung drin. Für 1 GHz Kerntakt musste ich die Spannung der GPU um 0,025 Volt anheben. 200 MHz mehr und die erhöhte Spannung resultieren allerdings in 18 Watt größerer Leistungsaufnahme und dementsprechend auch höheren Temperaturen.

Kommen wir zum Overclocking mit DICE (LN2 Tank war leer =))

2528533.png



CPU-Z Validator 3.1

Leider hatte ich zum Zeitpunkt des Tests nur ein beta BIOS mit fehlenden Funktionen und auch das GIGABYTE Easy-Tune will noch nicht richtig funktionieren. Ich musste deshalb mit allen aktiven Kernen arbeiten und konnte den Referenztakt im Windows nicht verändern. 5689.94 MHz war der maximal mögliche Takt bei -70°C.
GIGABYTE hat aber schnell nachgebessert und bereits ein neues BIOS nachgereicht, welches die oben angesprochenen Probleme behebt - einen entsprechenden Test werde ich zeitnah mit Flüssigstickstoff nachreichen.
Fazit

Ich habe in den letzten Tagen selbst einige Tests zur neuen AMD APU gelesen, welche meist negativ ausgefallen sind. Diese Meinung kann ich allerdings nicht ganz teilen. Jedem sollte klar sein, dass er für 125€ nicht die Leistung eines aktuellen i7 von Intel erhält, welcher mehr als das doppelte kostet. Im 2D hat die CPU sicher Schwächen und AMD sollte an der Effizienz weiter arbeiten.
Im 3D, bei verwenden der HD7660D weiß die APU allerdings zu überzeugen. Im Vergleich zum 3770K mit HD4000 erhält man eine deutlich höhere Gesamtleistung. Gelegenheitsspieler mit niedrigen Ansprüchen können sich mit dem A10-5800K günstig ein System zusammenstellen - ideal für HTPCs!
Der offene Multiplikator macht Oveclocking sehr einfach und auch bei dezentem Undervolting ist meist mehr Takt kein Problem. Dies tröstet allerdings nicht über die fehlende 2D Effizienz hinweg.

Das GIGABYTE F2A85X-UP4 überzeugt durch schlichtes, aber edles Design. Im Vergleich zu älteren GIGABYTE Boards gefällt mir die schwarze Gestaltung des PCBs und der Kühlkörper sehr gut.
GIGABYTEs 3D BIOS ist übersichtlich und benutzerfreundlich gestaltet. Einige Funktionen fehlten zum Testzeitpunkt noch, aber GIGABYTE hat bereits nachgearbeitet und die fehlenden Funktionen behoben. Das 3D BIOS hat sich bereits bei den Z77 Boards bewährt und bietet auch A85X Anfängern einen schnellen Zugang zu sämtlichen Optionen und zum Übertakten.
Kurz erwähnen möchte ich auch noch den schnellen Startvorgang des Boards. Das etwas ältere AM3+ Mainboard F990XA-UD5 braucht im Schnitt 8-9 Sekunden länger, um zum Windows Ladebildschirm zu gelangen.
Ich kann das F2A85X-UP4 jedem zukünftigen Trinity Besitzer uneingeschränkt empfehlen.


Anregungen, Fragen oder Kritik? Postet hier im Thread oder schreibt mir eine PN ;)

 

Anhänge

  • 7.png
    7.png
    24,4 KB · Aufrufe: 1.004
Zuletzt bearbeitet:
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
AW: asdasdasdas

BIOS pic dump
 

Anhänge

  • 110104110638.jpg
    110104110638.jpg
    268,6 KB · Aufrufe: 510
  • 110104110648.jpg
    110104110648.jpg
    244,1 KB · Aufrufe: 349
  • 110104110654.jpg
    110104110654.jpg
    276 KB · Aufrufe: 311
  • 110104110704.jpg
    110104110704.jpg
    262,7 KB · Aufrufe: 316
  • 110104110722.jpg
    110104110722.jpg
    305 KB · Aufrufe: 257
  • 110104110731.jpg
    110104110731.jpg
    312,5 KB · Aufrufe: 325
  • 110104110741.jpg
    110104110741.jpg
    256,8 KB · Aufrufe: 289
  • 110104110753.jpg
    110104110753.jpg
    320,8 KB · Aufrufe: 342
  • 110104110759.jpg
    110104110759.jpg
    306,7 KB · Aufrufe: 261
  • 110104110803.jpg
    110104110803.jpg
    287,4 KB · Aufrufe: 275
  • 110104110814.jpg
    110104110814.jpg
    330,7 KB · Aufrufe: 670
  • 110104110829.jpg
    110104110829.jpg
    380,4 KB · Aufrufe: 331
  • 110104110835.jpg
    110104110835.jpg
    369,9 KB · Aufrufe: 361
  • 110104110842.jpg
    110104110842.jpg
    375 KB · Aufrufe: 330
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
AW: asdasdasdas

Mainboard Picdump
 

Anhänge

  • 1.jpg
    1.jpg
    470,5 KB · Aufrufe: 392
  • 3.jpg
    3.jpg
    327,7 KB · Aufrufe: 395
  • 4.jpg
    4.jpg
    471,5 KB · Aufrufe: 351
  • 5.jpg
    5.jpg
    515,4 KB · Aufrufe: 337
  • 6.JPG
    6.JPG
    668,6 KB · Aufrufe: 849
  • 7.JPG
    7.JPG
    585,5 KB · Aufrufe: 396
  • 8.JPG
    8.JPG
    891,2 KB · Aufrufe: 330
  • 9.jpg
    9.jpg
    809,2 KB · Aufrufe: 303
  • 10.JPG
    10.JPG
    556,2 KB · Aufrufe: 330
  • 11.jpg
    11.jpg
    516,4 KB · Aufrufe: 273
  • 12.JPG
    12.JPG
    729,9 KB · Aufrufe: 284
  • 13.JPG
    13.JPG
    404,4 KB · Aufrufe: 361
  • 12.png
    12.png
    24,3 KB · Aufrufe: 3.831
  • 13.png
    13.png
    23,9 KB · Aufrufe: 3.833
Zuletzt bearbeitet:

King_Sony

Software-Overclocker(in)
Hi,
sehr schöner Test :daumen: Dann hab ich doch gleich eine Frage: Würdest du sagen, die APU eignet sich für gelegentliches Spielen, oder sieht es in der Richtung eher schlecht aus(ohne Zusätzliche Graka)?

LG Sony
 

Oberst Klink

Lötkolbengott/-göttin
Der Test ist gut, keine Frage.

Nur drängt sich mir irgendwie die Frage auf: Wofür ein FM2-Board, dass dank zweier PCIe x16-Slots quasi die Möglichkeit bietet, Crossfire zu nutzen. Zusammen mit einer APU macht das doch eigentlich keinen Sinn. Würde man mit einer APU nicht eher auf ein Mini-ITX oder µATX-Board setzen, um den PC möglichst klein zu halten? Und würde man nicht eher auf AM3+ setzen, wenn man schon eine AMD-CPU samt AMD-Grafikkarte nutzen möchte? Gut, man kann wie bei Sandy Bridge und Ivy Bridge die iGPU im Falle eine GraKa-Defekts als Notlösung verwenden, aber dafür ist der Grafikpart der APU doch eigentlich viel zu gut, um ihn quasi nur als Retter in der Not zu nutzen.
Mag ja sein, dass manche Leute die ganzen Erweiterungsslots nutzen, aber eigentlich gehört ne APU doch auf ein mini-ITX-Board. Ich will natürlich nicht ausschließen, dass Ich da den Ein oder Anderen Vorteil oder Sinn bei der ganzen Geschichte übersehen habe. Ist ja auch nur ein Gedanke von mir.
 
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
Hi,
sehr schöner Test :daumen: Dann hab ich doch gleich eine Frage: Würdest du sagen, die APU eignet sich für gelegentliches Spielen, oder sieht es in der Richtung eher schlecht aus(ohne Zusätzliche Graka)?

LG Sony

Hi,

danke :)

Ja für Gelegenheitsspieler, welche sich mit mittleren Details begnügen reicht es auf jeden Fall aus :)
 

stefan79gn

PCGH-Community-Veteran(in)
Also bf3 wird vieleicht mit minimalen details in niedriger Auflösung laufen aber ich glaub spaß wird man nicht haben. Vorallem im Multiplayer wo es zusätzlich noch auf cpu power ankommt. Aber es kommt sicher immer auf die persöhnlichen Ansprüche drauf an. Welche Auflösung schwebt dir denn vor?
 

stefan79gn

PCGH-Community-Veteran(in)
Welche Auflösung ? Singleplayer oder multiplayer? Weil singleplayer spielen die wenigsten und multiplayer ist noch ne ecke hungriger nach gpu und cpu power.
 

King_Sony

Software-Overclocker(in)
Ok,
da ich zumindest bei der Auflösung keine Kompromisse wollte hat sich das denke ich für mich erledigt. Ich wollte eig. ja sogar mehr als FullHD :devil:

LG Sony
 

stefan79gn

PCGH-Community-Veteran(in)
Naja denke in niedriger Auflösung sollte das spielen mit der apu gehen. Aber Full hd und dann noch bf3 mmh glaub ich nicht. So ein Test von bf3 wäre sicher mal nice to know. Sprich wieviel fps in full hd auf niedrig machbar sind. Wenn
 

Philipp28

Komplett-PC-Aufrüster(in)
Hi,

'n echt guter Test! :)

Ich hätte noch ein Verbesserungsvorschlag/Anregung - wie auch immer: Mich würde es interessieren, wie sich Trinity mit Llano schlägt... Also ob Trinity wunder wie besser ist als Llano oder so...

Man kann es sich zwar so ungefähr denken, aber man hätte hier dann nochmal ein Vergleich...

War nur ein Vorschlag ;) Du wirst wahrscheinlich auch gerade keinen Llano da haben, oder?!?
 
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
Da liegst du richtig :D

Hätte ich natürlich gemacht, aber ich habe leider kein FM1 Board hier. xTc wollte mir Benchmarks schicken, aber er hatte leider Probleme mit dem Setup.
 

Research

Lötkolbengott/-göttin
Hast du noch schnelleres RAM zum testen da?

Man müsste glatt mal gucken ob das Setup Grafikmonster wie D3 trollface.png schafft.
 

Krabbat

Freizeitschrauber(in)
Schöner Test!

Aber mal ne Frage: müsste es bei dem 2D Efiizienstest wPrime 1024m nicht eigentlich Sekunden x Watt sein? Denn du rechnest ja Sekunden (weniger ist besser) / Watt (weniger ist besser) und beim Ergebniss heißt es dann ja auch weniger ist besser. Je höher der Verbrauch (Watt) wird, desto geringer (also besser) wird aber der Endwert, da ja duch den Verbrauchstwert geteilt wird.
Oder mach ich jetzt nen Denkfehler?

 

Deimos

BIOS-Overclocker(in)
Wirklich schöner Test, danke für die Mühe.

Langsam überlege ich mir wirklich, ein Trinity-System für einen kleinen Monitor (1280x1024) zuzulegen. Das Ding überzeugt mich.
 

King_Sony

Software-Overclocker(in)
Ist der Bench auf Praxisrelevant, weil da ist der Amd ja doppelt so langsam, oder hat das nur theoretischen Wert?
 

Deimos

BIOS-Overclocker(in)
Kommt ganz auf das Szenario an.

In Spielen in Full-HD mit 8x MSAA dürfte der Unterschied bei einer halbwegs potenten Grafikkarte relativ gering und wenig praxisrelevant sein (natürlich auch dort mit Ausnahmen wie Starcraft, welches gerade mal zwei Kerne anspricht und die IPC-Schwäche der AMD-CPUs offenlegt), in anderen Anwendungsgebieten (Zippen, Bildbearbeitung, usw.) ist die Intel-Garde deutlich überlegen.

Die APUs können eigentlich nur dort punkten, wo keine dedizierte Grafikkarte im Spiel ist, d.h. sie bieten einfach das ausgewogenere Paket aus iGPU und CPU.
Sobald eine Zusatzkarte gekauft wird, verpufft der AMD-Vorteil (den einzigen, den sie imo im Moment am Markt haben :().
 
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
Schöner Test!

Aber mal ne Frage: müsste es bei dem 2D Efiizienstest wPrime 1024m nicht eigentlich Sekunden x Watt sein? Denn du rechnest ja Sekunden (weniger ist besser) / Watt (weniger ist besser) und beim Ergebniss heißt es dann ja auch weniger ist besser. Je höher der Verbrauch (Watt) wird, desto geringer (also besser) wird aber der Endwert, da ja duch den Verbrauchstwert geteilt wird.
Oder mach ich jetzt nen Denkfehler?


Danke für das Feedback. Habe den entsprechenden Teil entfernt und werde es überarbeiten. Da hatte ich den Denkfehler ;)

Ist der Bench auf Praxisrelevant, weil da ist der Amd ja doppelt so langsam, oder hat das nur theoretischen Wert?

wPrime ist ein multithreaded Benchmark. Der 3770K ist mit 4 Kernen + HT ganz klar im Vorteil.
 

Jan565

Volt-Modder(in)
Schöner Test!

Zeigt zwar das AMD nachgebessert hat, aber leider etwas spät. Mal sehen was in der Zukunft noch so kommt.
 

Ahab

Volt-Modder(in)
Ich hätte mal eine allgemeine Frage zu den APUs.

Wenn ich die iGPU nicht nutze, sondern eine ded.GPU verwende, sinkt doch sicher die Leistungsaufnahme seitens der APU, da der Grafikpart ja nicht belastet wird... oder? Respektive: Durch die nicht vorhandene Last auf die integrierte GPU sollte doch auch die Abwärme sinken und der Prozessor "leichter" zu kühlen sein...?
 
TE
der8auer

der8auer

Moderator, der8auer Cooling & Systeme
Ja die GPU kann man im BIOS deaktivieren. Die Leistungsaufnahme sinkt dann natürlich.
 

belle

PCGH-Community-Veteran(in)
Sehr guter Test, danke! :daumen:

Mir ist aufgefallen, dass der Prozzi z.B. im Crysis CPU Benchmark schneller als der alte Bulldozer ist. Das lässt in Sachen Zukunft von AMD zumindest für den Mainstream Markt hoffen. :)
Die Multithreading-Unterstützung dürfte mit den kommenden Konsolen ja nicht nachlassen...
 

Deimos

BIOS-Overclocker(in)
Mir ist aufgefallen, dass der Prozzi z.B. im Crysis CPU Benchmark schneller als der alte Bulldozer ist.
Ist auffallend, ja.

Dürfte dem höheren Takt geschuldet sein und hoffentlich auch gesteigerter IPC-Leistung. Auf alle Fälle lässt das auf Piledriver hoffen. Das wird aus PD noch keinen 3770K machen, aber immerhin ;).
 

Mr.Blade

PC-Selbstbauer(in)
Blöde Frage, Umstieg von Q9300 auf A10-5800K: Wäre ein Leistungszuwachs auch in Spielen zu erwarten bei externer Grafikkarte (HD 6970)? Da ich auch mit Programmen wie Photoshop und Video-Enkodierung gelegentlich arbeite, wobei der A10-5800K gut besser abschneidet, würde mich ein kostengünstiger Wechsel auf 'ne neue Generation schon reizen. Vorausgesetzt, es lohnt sich. Was meint ihr? :hail:

Grüßle
 

King_Sony

Software-Overclocker(in)
Hi,
könntest du mir einen Gefallen tun und den A10-5800K mit Boxed Kühler kühlen und dann einen U-Förmigen Karton drüber(über Board, CPU und Netzteil) der auf zwei Seiten(links und rechts) offen ist und dann prime95 laufen lassen.
Wäre echt super, da ich plane einen PS3 zu machen und da möchte ich auch eine Trinity APU einbauen, allerdings sorge ich mich derzeit um die Temps, da ja der Airflow nur begrenzt ist und auch nur zwei Seiten mit Kühllöcher versehen sind. :)

Wenn dir natürliche eine bessere Methode einfällt die Situation nachzustellen dann einfach sagen :daumen:

LG Sony
 

Mr.Blade

PC-Selbstbauer(in)
guckmal hier
Desktop Prozessoren (3 - 4 Kerne)

hab selber grad etwas doof geguckt:ugly:
als ich gesehn wie hoch der 5800k eingestuft ist
Danke für den Link, ich persönlich halte von Ranglisten allerdings nicht viel. Zwischen dem A10-5800k und dem i5-3570k liegen vermutlich Welten, wenn man von der reinen CPU-Leistung ausgeht. Eher interessieren mich Benchmarks, allerdings habe ich keine gefunden, die den A10-5800K mit anderen Prozessoren vergleicht. :huh:

Gruß
 

Masura1

Schraubenverwechsler(in)
ja mich würde es auch sehr Interessieren wie gut der A10-5800K in der CPU Leistung ist. Ich habe momentan ein AMD Phenom 2 1100T 6x3,3Ghz (125W) und möchte mir einen neuen Zulegen der eventuell auch etwas Strom sparsamer wäre als meiner.
Da ich eigentlich immer schon AMD hatte will ich auch nicht auf Intel umsteigen müssen auch wenn sie momentan mit 77W natürlich am wenigsten brauchen (I5-3570k). Brauchen tue ich ihn hauptsächlich zum zocken und da ich mich gleich anschließen kann mit der Frage : Gibts auch bei mir Relevante Verbesserungen mit dieser CPU und einer eigenen Grafikkarte? (momentan habe ich eine gtx470 wird aber auch noch diese Jahr ersetzt. Falls es auch relevant ist mein Ram läuft derzeit mit 1333Mhz da die CPU nicht mehr kann und bei der FM2 Sockel könnte ich ja auf 1866Mhz raufdrehen, würde das auch was bringen?

edit:
in vielen test wird ehr meist als schwache cpu dargestellt aber auch in dieser CPU Liste ist der A10-5800k sogar etwas besser als ein I5-3570k eingestuft
http://www.cpubenchmark.net/cpu_lookup.php?cpu=AMD+A10-5800K+APU
 
Zuletzt bearbeitet:

pagani-s

BIOS-Overclocker(in)
ja mich würde es auch sehr Interessieren wie gut der A10-5800K in der CPU Leistung ist. Ich habe momentan ein AMD Phenom 2 1100T 6x3,3Ghz (125W) und möchte mir einen neuen Zulegen der eventuell auch etwas Strom sparsamer wäre als meiner.
Da ich eigentlich immer schon AMD hatte will ich auch nicht auf Intel umsteigen müssen auch wenn sie momentan mit 77W natürlich am wenigsten brauchen (I5-3570k). Brauchen tue ich ihn hauptsächlich zum zocken und da ich mich gleich anschließen kann mit der Frage : Gibts auch bei mir Relevante Verbesserungen mit dieser CPU und einer eigenen Grafikkarte? (momentan habe ich eine gtx470 wird aber auch noch diese Jahr ersetzt. Falls es auch relevant ist mein Ram läuft derzeit mit 1333Mhz da die CPU nicht mehr kann und bei der FM2 Sockel könnte ich ja auf 1866Mhz raufdrehen, würde das auch was bringen?

edit:
in vielen test wird ehr meist als schwache cpu dargestellt aber auch in dieser CPU Liste ist der A10-5800k sogar etwas besser als ein I5-3570k eingestuft
PassMark CPU Lookup

ein tausch gegen deinen x6 1100t würde sich meiner meinung nach nicht lohnen. dann eher der i5 3570k oder i7 3770k. beide nur 77watt tdp. beide bis 4,4ghz gut zu kühlen.
ich bin vom i7 920@3,8ghz auf den i7 3770k @4,4ghz 24/7 gewechselt. stromverbrauch ging runter und die leistung hat einen ein grinsen ins gesicht gemeisselt.^^
naja der 5800k ist wie die fx mit modulen statt realen kernen versehn.
hat in gewissen dingen dann eben wenig leistung pro mhz aber bei arbeiten und benchmarks schneiden die dann wohl ganz gut ab.
glaube auch nicht wirklich daran das der 5800k dem i5 3570 in spielen das wasser reichen kann aber das muss er ja nicht
solange die leistung reicht. man betrachte mal nur den preisunterschied.
da der nun recht neu aufm markt ist muss man eben nurn weilchen warten und man bekommt auch spielebenchmarks zu sehn.
meiner meinung nacht wird der 5800k für das geld keine schlechte cpu sein.
nächsten monat könnte er bestimmt auch hier mit bei stehn
http://www.pcgameshardware.de/CPU-H...ssoren-Test-Bestenliste-AMD-und-Intel-675663/
 
Zuletzt bearbeitet:

Mr.Blade

PC-Selbstbauer(in)
Die folgenden Benchmarks zeigen leider, dass die reine CPU-Leistung des A10-5800K in Spielen dem i3-3220 nicht das Wasser reichen kann. Schade. :daumen2: (Quelle: techreport.com)

http://techreport.com/r.x/desktop-trinity/skyrim-fps.gif
http://techreport.com/r.x/desktop-trinity/arkham-fps.gif
http://techreport.com/r.x/desktop-trinity/bf3-fps.gif
http://techreport.com/r.x/desktop-trinity/crysis2-fps.gif
http://techreport.com/r.x/desktop-trinity/multi-fps.gif
http://techreport.com/r.x/desktop-trinity/civv-lgv.gif

Bei CPU-lastigen Spielen wie Civilizations IV entpuppt sich eine doch schwächere Rechenleistung, bei Rendering und Videoenkodierung macht er sich, wie angenommen, aber ganz gut und zieht dem i3-3220 größtenteils davon. Trotzdem: Die mangelnde Leistung in Spielen hält mich eher vom Kauf ab, eine Leistungssteigerung gegenüber meines Q9300 ist in Spielen dann wohl gar nicht zu erwarten, im Gegenteil. Für reines Stromsparen, mäßig erhöhte Leistung in Rendering/Enkodierung und "neue Generation" ist er mir's dann doch nicht wert.

Natürlich bleibt der A10-5800K nichtsdestotrotz sehr gut fürs Geld, gerade, wenn man bedenkt, dass er einen spieletauglichen Grafikchip an Bord hat.

Gruß
 

pagani-s

BIOS-Overclocker(in)
Die folgenden Benchmarks zeigen leider, dass die reine CPU-Leistung des A10-5800K in Spielen dem i3-3220 nicht das Wasser reichen kann. Schade. :daumen2: (Quelle: techreport.com)

http://techreport.com/r.x/desktop-trinity/skyrim-fps.gif
http://techreport.com/r.x/desktop-trinity/arkham-fps.gif
http://techreport.com/r.x/desktop-trinity/bf3-fps.gif
http://techreport.com/r.x/desktop-trinity/crysis2-fps.gif
http://techreport.com/r.x/desktop-trinity/multi-fps.gif
http://techreport.com/r.x/desktop-trinity/civv-lgv.gif

Bei CPU-lastigen Spielen wie Civilizations IV entpuppt sich eine doch schwächere Rechenleistung, bei Rendering und Videoenkodierung macht er sich, wie angenommen, aber ganz gut und zieht dem i3-3220 größtenteils davon. Trotzdem: Die mangelnde Leistung in Spielen hält mich eher vom Kauf ab, eine Leistungssteigerung gegenüber meines Q9300 ist in Spielen dann wohl gar nicht zu erwarten, im Gegenteil. Für reines Stromsparen, mäßig erhöhte Leistung in Rendering/Enkodierung und "neue Generation" ist er mir's dann doch nicht wert.

Natürlich bleibt der A10-5800K nichtsdestotrotz sehr gut fürs Geld, gerade, wenn man bedenkt, dass er einen spieletauglichen Grafikchip an Bord hat.

Gruß

naja wenn der in spielen wieder so eine bescheidene leistung abgibt frage ich mich nur wie der auf der rangliste soweit nach oben gekommen sein soll.
 
Oben Unten