AMD Trinity im Test: Schnellste integrierte Grafikeinheit trifft guten CPU-Part

Schon der miese Treibersupport des 780G Chipsatzes, der im Laufenden Betrieb regelmäßig abstürzt (je nach Treiberversion nach 5, 10 Min oder manchmal auch nach Stunden, in einer Treiberversion von 2010 gehts sogar fast den ganzen Tag.

Also ich hatte mit meinem 780G Chipsatz bisher nie auch nur irgendwelche Probleme. Hat da nicht vielleicht dein Boardhersteller eher geschlampt?
 
Dann kauf dir den 5700 und deine Wünsche wurden erhört :D Ich frage mich aber echt wieso der 5800k soviel mehr Verbraucht als der Vermeintlich gleichschnelle 5700?

A10-5800K43,8 GHz4,2 GHz4 MiBHD 7660D384 ALUs800 MHzDDR3-1866100 W
A10-570043,4 GHz4,0 GHz4 MiBHD 7660D384 ALUs760 MHzDDR3-186665 W
Die 200/160Mhz Rechtfertigen doch keine 35W mehr? oder hat AMD mal wieder zu konservativ die Vcore angesetzt?
 
Joa, der 5700er scheint wohl recht beliebt zu sein, ist aktuell sogar teuerer als der A10-5800K in den Preisvergleichen. Hmm, es reizt schon, sich nen kleinen PC für an den TV zu basteln, nur iss das Angebot der passenden Mainboards noch net so dolle. Muss man mal gucken, wie sich des weiterentwickelt.
 
Dann kauf dir den 5700 und deine Wünsche wurden erhört :D Ich frage mich aber echt wieso der 5800k soviel mehr Verbraucht als der Vermeintlich gleichschnelle 5700?

A10-5800K43,8 GHz4,2 GHz4 MiBHD 7660D384 ALUs800 MHzDDR3-1866100 W
A10-570043,4 GHz4,0 GHz4 MiBHD 7660D384 ALUs760 MHzDDR3-186665 W
Die 200/160Mhz Rechtfertigen doch keine 35W mehr? oder hat AMD mal wieder zu konservativ die Vcore angesetzt?

Ist bestimmt Cherry-picked, sprich da werden besonders effeziente Chips für aussortiert. Dass die VCore konservativ angesetzt sei, kann ich jetzt nicht bestätigen, ich geh aber mal stark davon aus. Momentan scheint man bei AMD auf höchstmögliche Ausbeute fixiert zu sein, und das wird eben durch eine höhere VCore begünstigt.

Deshalb ist der Chip auch teurer als der 5800K. Man könnte fast sagen der 5800K sei das Abfallprodukt vom 5700, die eben dessen Effizienzkriterien nicht schaffen.
 
Könnte man mit dem 5700 auf BF3 spielen?

Wenn man nur surfen, arbeiten und Filme(@2560X1440) schauen will zu welcher CPU würdet ihr dann raten(der A4-5300 sieht ausreichend aus, oder doch lieber Intel)?

LG Sony
 
Ist bestimmt Cherry-picked, sprich da werden besonders effeziente Chips für aussortiert. Dass die VCore konservativ angesetzt sei, kann ich jetzt nicht bestätigen, ich geh aber mal stark davon aus. Momentan scheint man bei AMD auf höchstmögliche Ausbeute fixiert zu sein, und das wird eben durch eine höhere VCore begünstigt.
Also scheinbar ist die Vcore nicht so chronisch hoch angesetzt, wie bei Llano noch. Bei Llano hatte man noch mehr Spielraum nach unten. Siehe P3DNow! und CB.
Deswegen bin ich doch ernüchtert, von dem was maximal technisch im Produkt enthalten ist.
 
@Unrockstar85
der 5800K verbraucht ja auch gar keine 35 Watt mehr als der 5700, AMD hat nur keine TDP Stufe zwischen 65 und 100Watt für APUs
also ich denke nicht, dass der 5800k aus schlechten Chips gefertigt wird, denn er richtet sich ja durchaus auch an Übertakter (offener Multi), welche zwingend gute Chips haben wollen und auch brauchen, damit sich noch mehr Takt rausholen lässt

insgesamt finde ich die Cpu Leistung ... bulldozer - irgentwie scheint AMD da nicht so ne tolle Entwicklung gemacht zu haben, also Phenoms in 32nm wären, glaube ich, besser
der gpu-Teil ist dafür verbessert worden, wobei ich auch da noch mehr Potential sehe, wenn dann die GCN-Architektur verwendet wird und vielleicht noch ne 125W APU rauskommt, da hat man dann einfach mehr Spielraum für Grafikleistung
 
Könnte man mit dem 5700 auf BF3 spielen?

Wenn man nur surfen, arbeiten und Filme(@2560X1440) schauen will zu welcher CPU würdet ihr dann raten(der A4-5300 sieht ausreichend aus, oder doch lieber Intel)?

LG Sony

Kommt ein bisschen drauf an was du unter arbeiten verstehst. Falls da was dabei ist was vom Grafikchip beschleunigt wird eindeutig ein AMD, sonst könnte auch Intel reichen

Worauf du aber auf jeden fall Acht geben solltest, sind die Anschlüsse am Board. HDMI ist bei mehr als 1920x1200 immer noch manchmal etwas tricky, deshalb wäre es hilfreich, wenn ein Dual-Link DVI Anschluss oder ein DisplayPort (wenn dein Bildschirm einen entsprechenden hat) besitzt

und was BF3 anbelangt: Mit reduzierten details und eventuell geringerer Auflösung, ja
 
und was BF3 anbelangt: Mit reduzierten details und eventuell geringerer Auflösung, ja

Also nur mit starken Einbußen :(. Dann werde ich mir irgendwann doch noch einen richtigen Gamingpc kaufen müssen^^

Kommt ein bisschen drauf an was du unter arbeiten verstehst. Falls da was dabei ist was vom Grafikchip beschleunigt wird eindeutig ein AMD, sonst könnte auch Intel reichen
Vor allem Programmierung und ganz selten Bildbearbeitung. Ich denke das anspruchsvollste werden 3D Blurays werden.
Besonders wichtig wäre eine geringe Abwärme/Hitzeentwicklung. Könntest du schon konkret ein Modell empfehlen, oder ist es dafür noch zu früh?

LG und Danke

Sony
 
Also nur mit starken Einbußen :(. Dann werde ich mir irgendwann doch noch einen richtigen Gamingpc kaufen müssen

Natürlich und der wird wenn du ohne Einbußen spielen willst teuer. Von der Shaderanzahl her ist das Topmodell in etwa wie seinerzeit die HD3870, falls das hilft.


Vor allem Programmierung und ganz selten Bildbearbeitung. Ich denke das anspruchsvollste werden 3D Blurays werden.
Besonders wichtig wäre eine geringe Abwärme/Hitzeentwicklung. Könntest du schon konkret ein Modell empfehlen, oder ist es dafür noch zu früh?

LG und Danke

Sony

Dafür würde sich wohl eher die i3´s empfehlen, der 3220 z.B.
 
Auf jeden Fall ein lichtblick für die Architektur! Zwar immer noch nicht Perfekt, aber gegen die iGPU konnte man bei AMD noch nie was sagen, da schlagen die Intel um welten. CPU Leistung wie erwartet von mir und er dürfte bei gleichem Takt gut 10-20% schneller sein als ein gleich getakteter Bulldozer. Die CPU ist genau das, was ich eigentlich von dem Bulldozer erwartet habe. 1 Jahr zu spät aber.

Mein eindruck ist, eine gute APU mit genug Grafikleistung und einer relativ guten CPU im vergleich zum Bulldozer.
 
Natürlich und der wird wenn du ohne Einbußen spielen willst teuer. Von der Shaderanzahl her ist das Topmodell in etwa wie seinerzeit die HD3870, falls das hilft.




Dafür würde sich wohl eher die i3´s empfehlen, der 3220 z.B.

Wäre auch meine Empfehlung. Eventuell sogar den 3220T, dessen TDP noch geringer ist. Kostet dafür aber auch etwa 10€ mehr.Intel ist hier jedenfalls eindeutig die bessere Wahl, solange AMD den BD3D Support nicht verbessert. An (Non Retro-)Gaming ist damit aber nicht zu denken, von der gelegentlichen runde WOW mal abgesehen.
 
Schon der miese Treibersupport des 780G Chipsatzes, der im Laufenden Betrieb regelmäßig abstürzt (je nach Treiberversion nach 5, 10 Min oder manchmal auch nach Stunden, in einer Treiberversion von 2010 gehts sogar fast den ganzen Tag.
Die mehrfachen Anfragen beim Support waren bislang unbeantwortet, aber da das Problem viele haben zeigt mir das, wie "toll" die Treiber von AMD im Vergleich sein müssen.

Ich habe auch ein 780G-Board (Gigabyte GA-MA780G-UD3H) und hatte auch mal das Problem mit den von den beschriebenen Abstürzen.
Bei mir lag es am Beta-BIOS F6B (was ich benötige, damit der Thuban erkannt wird) in Verbindung mit dem AMD-AHCI-Treiber.
Problemlösung: AMD-AHCI-Treiber deinstallieren (der kann eh kein TRIM) und den AHCI-Treiber von Microsoft verwenden.

Fazit: Bei mir läuft selbst ein X6 1090T @ 3,6 GHz und eine SSD problemlos auf einem 780G-Board...
 
Ich verstehe wirklich nicht, warum die Leute sich hier über fehlende Office-Leistung beschweren.
Wenn man zwei PCs mit Intel i3 und nem AMD A10 nebeneinander stellt, wird NIEMAND einen Unterschied bemerken.
AMD hat hier ein super Gesamtpaket abgeliefert. Jetzt fehlt nur noch ein ordentliches Marketing und das Bestechen der großen Elektronikmärkte und schon verkaufen sich die wie geschnitten Brot. Beides macht(e) Intel und es hat ja Erfolg gezeigt. :ugly:
 
auch wenn amd die gpu verbessert hat, erinnert mich der a10 irgendwie an aldi-pc's...gute ausstattung aber nichts halbes und nichts ganzes -> cpu-power reicht und die gpu taugt zwar für dicke filme aber für spiele dann doch wieder bedingt!
 
Dat Dingen ist sicherlich nicht schlecht, keine frage.

aber wenn ich mir nen intel nvidia system aufbaue mit neuer hw / technik ala keppler und ivy . verbrauche ich im idle und office modus das gleiche oder gar weniger.

wenn ich es sogar auf die spitze treibe nehm ich mir nen Ivy 3220 + ner 650gtx und habe unter last den gleichen strom verbauch. aber beim gaming dann doch knapp 70 % mehr leistung durch die 650er gtx.

mit der kommenden 650 gtx TI wird das dann nochma interessanter da biste vlt bei 20 watt mehr verbrauch aber dafür haste wirklich mehr als nur ein bisschen spürbar leistung da.

ich hoffe das amd mit dem Vishera es besser macht

@memphis amd hat ja auch hier wieder nen Hybrid Crossfire modus frei gegeben , und das bis zu einer 6670.
also wenn mann es richtig macht dann kann mann nen spiele fähigen multimedia pc zusammenbauen auf basis einer A10 apu plus der 6670 und schnellen ram ( am besten 2133 oder mehr )
nur kommt dann halt wieder der part was bietet intel / nvidia bzw intel /amd(graka) als gegenpart an. und da biste verbrauchs technisch besser aufgestellt
 
Llano war gar nicht so erfolgreich, wie die ersten Meldungen vermuten ließen.
Die Lager der Händler sind noch voll und Llano wird parallel zu Trinity weiter angeboten.
Ob Trinity der große Erfolg wird, der sich AMD erhofft, wird sich noch zeigen. Ich glaube das nicht.

Die Leistung der iGPU ist deutlich gewachsen.
Aber es stellt sich immer noch die Frage, ob eine dedizierte GPU für den Kunden nicht besser wäre?
Zum Gamen ist eine HD 7660D/7560D nichts Halbes und nicht Ganzes.
 
Zuletzt bearbeitet:
Also eins mal vorab, ich kann so manche Kommentare Pro vs Contra ja sehr gut verstehen.
Aber mal im Ernst.....,Leute.....

Erstmal haltet euch doch mal die Entwicklung vor Augen. Wir reden hier immerhin davon,das eine Grafikkarte in einer Cpu verschwindet! :what:

Das heißt,das ein Grundelement aus dem Gehäuse praktisch verbannt wird. Faktor= mehr Platz für anderes(was auch immer).
Dann wird aus der APU soviel rausgeholt das sie auf der Ebene einer 6670 mithalten kann. Ich mein,HALLO..., überlegt euch mal die Abwärme die die eigentliche 6670 produziert und was sie so an Strom verbraucht. Das alles auf wieviel cm verteilt? 4x4cm oder so?

Das in einer CPU (APU) mit der man,wenn man nicht unbedingt Ultradecials haben will,eigentlich alles spielen kann usw.
Ich mein,was für Wunder verlangen den manche hier? Man hat es mit dem A10-5800K geschafft, bei GPU-Computing Intel locker hinter sich zu lassen,natürlich bei gewissen Programmen usw,aber trotzdem. Und man lässt auch noch die alte Version Liano hinter sich.
Für eine nichtvergleichbare Technikschmiede wie AMD vs Intel finde ich das doch schon Mega.
Wir reden hier immer noch davon das eine Grafikkarte ihren Platz im eigentlichen Gehäuse verliert und da regen sich manche drüber auf das der Stromverbauch immer noch zu hoch ist. Eigentlich kaum zu glauben.
Ja,ich denke realistisch.

Ich möchte mal wissen,wie es Intel schaffen sollte, soviel GPU-Leistung in einer CPU (APU) unterzubringen ohne das sich der Stromverbrauch erhöht. Wenn schon die eigentliche Grafikkarte soviel Strom verbraucht und auch Abwärme produziert.
Von daher und der eigentlichen Entwicklung kann man für und vor AMD nur den Hut ziehen. Finde ich zumindest.

Klar ich als Gamer,der lieber mit Highdecials spielt,würde sich nie so eine CPU holen,aber eins ist sicher,billiger kann ich mir nen Rechner nicht zusammenstellen für meine Kidis.
Aus dieser Sicht ist der A10-5800K schon mehr als genug,den mit Browsergames und ein paar Filme gucken machen die nicht. (Noch nicht :ugly:).

Naja,ich hoffe man versteht,was ich meine.

gruß

Ps: gerne auch igpu..sry
 
Zuletzt bearbeitet:
Zurück