Sieht doch ganz gut aus. Vor allem, wenn man bedenkt, dass die meisten i3-User wohl eher ein Modell mit der HD 2500 nutzen werden. Die kommt ja nicht ansatzweise an Trinity heran. Auch der CPU-Part ist völlig ausreichend für die angesprochene Zielgruppe. Klar, der Stromverbrauch unter CPU-Last ist nicht so toll. Aber wer kauft sich schon nen i3 oder die A-Serie zum Rendern? Hier hat AMD eindeutig mal das bessere Produkt.
Und wer kauft sich eine A-Serie gezielt zum zocken? Da hat AMD eindeutig kein gutes, sondern nur ein "ausreichendes" Produkt. Zugegeben: Intel hat ein schlechtes. Aber außerhalb von Spielen geht es dann eben doch primär um den CPU-Part - und das ist Intel "verdammt gut". Und AMD nur "befriedigend".
Etwas anders sieht es im ITX Bereich aus, hier hat man nicht den Platz und max 1 Erweiterungsslot. Dieser Bereich steht und fällt jedoch mit dem Angebot der Hersteller. Was mich zum nächsten Punkt bringt, wiso stellt man überhaupt noch fullsize ATX Boards vor? ->
Asrock: Neues Mainboard für AMD's APU A-Serie enthüllt Die benötigt doch keiner.
Es soll noch Leute geben, die Erweiterungskarten nutzen
Und da mitlerweile Grafikkarten für sich schon 3 Slots + idealerweise einen zum ansaugen beanspruchen, wird das selbst im ATX-Format schon ziemlich eng.
Ich verstehe wirklich nicht, warum die Leute sich hier über fehlende Office-Leistung beschweren.
Wenn man zwei PCs mit Intel i3 und nem AMD A10 nebeneinander stellt, wird NIEMAND einen Unterschied bemerken.
Führe ein Programm aus, dass ein bißchen CPU-Last verursacht und jeder wird, beim typischen 5€-Komplett-PC-Kühler, den Unterschied hören.
Beides macht(e) Intel und es hat ja Erfolg gezeigt.
Ich sehe, die Anti-Intel-Fraktion macht Fortschritte in Sachen "unverfängliche Formulierung verfänglicher Inhalte"
Aber es stellt sich immer noch die Frage, ob eine dedizierte GPU für den Kunden nicht besser wäre?
Zum Gamen ist eine HD 7660D/7560D nichts Halbes und nicht Ganzes.
Sicher wäre die besser.
Aber Komplett-PC-Käufer reißen sich jetzt seit über einem Jahrzehnt um Rechner fürs spielen, deren CPU/GPU-Kombination nichts Halbes und nichts Ganzes ist. Wenn AMD den Fuß in der OEM-Tür richtig ausspielt, sollten sie auch Trinity ganz gut loswerden. Zumal Intel es sich schon aus Gründen der Produktfächerung nicht erlauben wird, im unteren Preissegment einen direkten Konkurrenten anzubieten - denn dafür müssten sie Desktop-Pentiums bis auf HD4000 Niveau freischalten.
Aber mal im Ernst.....,Leute.....
Erstmal haltet euch doch mal die Entwicklung vor Augen. Wir reden hier immerhin davon,das eine Grafikkarte in einer Cpu verschwindet!
Das heißt,das ein Grundelement aus dem Gehäuse praktisch verbannt wird. Faktor= mehr Platz für anderes(was auch immer).
Dann wird aus der APU soviel rausgeholt das sie auf der Ebene einer 6670 mithalten kann. Ich mein,HALLO..., überlegt euch mal die Abwärme die die eigentliche 6670 produziert und was sie so an Strom verbraucht. Das alles auf wieviel cm verteilt? 4x4cm oder so?
Technisch ist die Leistung AMDs sicherlich nicht zu missachten. Im Gegensatz zu z.B. Bulldozer, der einfach versemmelt war, scheint Trinity, im Rahmen dessen, was die Fertigung zulässt, ganz gut gelungen zu sein - das kritisiert hier auch niemand. Das Problem ist nur, dass Trinity ein bißchen an den Bedürfnissen der Kunden vorbei geht. Denn der Markt ist gespalten in Leute, die nicht zocken und die bei Trinity eine sinnlos große iGPU bezahlen und eine veraltete CPU-Fertigung mit mittelprächtiger Architektur in Kauf nehmen müssten, und in Spieler, die mit der iGPU unterversorgt sind.
Und leider ist es bei Elektronik wesentlich wichtiger, den Markt zu treffen, als ein technisches Meisterstück abzuliefern.
Sonst hätten wir heute noch Netburst-CPUs.
P.S.: Die 6670 wurde in 40 nm Bulk gefertigt, Trinity in 32nm SOI. Das reduziert den Stromverbrauch erheblich. Zudem hat Trinity einen Speichercontroller weniger, als eine CPU+6670 Kombination. Der bessere Vergleich wäre eine HD7570 (wobei selbst die wegen GCN-gpGPU-Optimierungen mehr verbraucht, als nötig), der man noch die CPU-Kerne eines kleinen Core i3/Pentiums spendiert hat. Und im Vergleich dazu ist Trinity dann "nur" noch gelungen, aber kein Wunderchip.
Ich möchte mal wissen,wie es Intel schaffen sollte, soviel GPU-Leistung in einer CPU (APU) unterzubringen ohne das sich der Stromverbrauch erhöht. Wenn schon die eigentliche Grafikkarte soviel Strom verbraucht und auch Abwärme produziert.
Intels aktuelle iGPU zieht, soweit das bekannt ist, wohl <10 W. Die könnten die Größe und Leistung der GPU vervierfachen und das Gesamtergebnis würde immer noch weniger verbrauchen, als Trinity - da braucht man sich keine Illusionen zu machen. AMD hat die bessere iGPU, weil Intel einen Rückstand in der GPU-Entwicklung hat und dem Thema ingesamt noch immer zu wenig Aufmerksamkeit widmet. Aber gegen Intels Vorsprung in Sachen Fertigung (und CPU-know-how) würde AMD nicht ankommen, wenn in Sachen GPU Gleichstand herrschen würde.