Erste AMD-Benchmarks zu Trinity geleakt

Schaffe, kann es sein, dass Du ein kleiner AMD-Fanboy bist? Falls ja, dann vernimm, dass ich seit meinem K5 ausschließlich AMD-Systeme ge- und verbaut habe. Auch meine letzte Nvidia war eine Geforce 2, danach kamen mir nur noch Radeons ins Haus. Ich bin also durchaus auf AMDs Seite und wünsche der Firma alles Gute, aber nach aktuellem Stand sehe ich nicht, dass ich meinen Phenom II X3 720 BE gegen ein Llano- oder BD-Modell austausche. Du brauchst jedenfalls nicht hysterisch oder ausfallend zu werden.

Zweitens: Wo Du von renommierten Fachmagazinen sprichst, kann ich gleich mal wiedergeben, dass die c't richtigerweise angemerkt hat, dass BD mit seiner massiv-parallelen Architektur gegen den Trend richtet und selbst Server-Schwergewichte wie Sun mittlerweile einen höheren Wert auf Single-Threaded Performance legen. Aber auch das wird bei Dir sicherlich nicht ziehen, bei Dir ist einfach Hopfen und Malz verloren. Wenn Trinity rauskommt und ich dran denke, werde ich Dich verhöhnen. Es wird mir Freude bereiten.

P.S.:

Der FX-4100 ist bei 3,6 ghz schon sparsamer als das aktuelle Llano Topmodell.
Warum sollte man es also mit Piledriver nicht hinbekommen?

Der Llano hat eine integrierte GPU, die allein ordentlich Strom frisst. Dass der BD weniger Strom verbraucht als eine APU, ist in meinen Augen das mindeste. Ob sein Nachfolger das auch schaffen wird, werden wir sehen.
 
  • Like
Reaktionen: hfb
Der Llano hat eine integrierte GPU, die allein ordentlich Strom frisst. Dass der BD weniger Strom verbraucht als eine APU, ist in meinen Augen das mindeste. Ob sein Nachfolger das auch schaffen wird, werden wir sehen.
Bei den Strommessungen war die IGP deaktiviert, daher ist dieses Argument nichtens:

Bei allen Messungen kam eine diskrete Grafikkarte zum Einsatz, so dass eine eventuell vorhandene iGPU komplett abgeschaltet war.

@Schaffe89: Dann musst du aber alles posten;) Der FX-4100 ist bei ht4u in Spielen (nur LQ) zwar 4% langsamer als der A8-3850, in Multi-threaded-Applikationen aber 8% schneller und in Singlethreaded gar 9%. In allen Tests ohne Spiele sinds 9%, komplett noch 5% schneller.
Außerdem benötigt dort sogar der FX-6100 (!) weniger Energie als der A8-3850 und ist -1%, +27%, +11%, +22% und +15% schneller.

Und nö, ich bin kein Fanboy.
 
Zuletzt bearbeitet:
Der FX-6100 ist generell sparsamer als der FX-4100, denn der niedrigere Takt überkompensiert das zusätzliche Modul.

@ Schaffe89

Das Trinity-Flaggschiff hat 3,8 GHz - also 200 MHz mehr als der FX-4100. Und von wegen Architekturschwächen: Ich sage nur winziger L1 ...
 
@ Marc: Liegt auch und vor allem an der dazu nötigen Spannung: Bei ht4u lief der 6100 standartmäßig mit 1.18V (UV: 1.10V), während der 4100 1.32V (UV: 1.24V) brauchte - trotz nur 300MHz Taktdifferenz. Könnte daran liegen, dass bei den Quadcores relativ minderwertige Dies verwendet werden, denn die 300MHz dürften eigentlich nicht für solch eine (Spannungs-)Differenz sorgen. Oder irre ich mich?
 
Der FX-4100 hier bekommt satte 1,39 Volt - daher verbrät der mehr als der FX-6100 mit 2C mehr und nur 1,19 Volt. Die FX-4100er sind wohl Ausschuss und werden per Spannung zum Laufen geprügelt.
 
Wenn schon ein FX-4100 bei 1.32V weniger Energie als ein A8-3850 aufnimmt (welcher zugegeben und aus unerfindlichen Gründen auch auf 1.4V geprügelt wird) und AMD angefangen hat - zumindest beim aktuellen BD - nicht jede CPU mit einer Mörderspannung laufen zu lassen, könnte es doch auch gute Trinitys geben, welche ihre 3.8GHz Takt auch mit 1.25V Standartspannung (oder weniger) schaffen. Diese dürften grob geschätzt zumindest 10% schneller als ein A8-3850 sein und könnten theoretisch deutlich sparsamer zu Werke gehen. Man wird ja wohl noch träumen dürfen.:ugly:

(Mal davon abgesehen, dass Intel dann bereits mit Ivy Bridge heftig an AMDs Tür klopfen wird, welcher schneller und sparsamer, aber grafiktechnisch unterlegen sein wird.)
 
In allen bisherigen Tests, die ich gelesen habe, ließ sich der Llano (A8-3850 oder A6-3650) jedoch ohne Probleme auf <1.2V bewegen und sich die Stromaufnahme damit um mindestens 40% senken. Warum validiert AMD die APUs eigentlich nicht besser?
 
Wenn man gute Modelle (von denen es ziemlich viele zu geben scheint) aussortieren und mit einer TDP von 65W vermarkten würde (bei entsprechend höherem Preis) könnte man bestimmt mehr verdienen, als die Validierung kostet (wobei ich nicht weiß, wie viel die kostet). Außerdem hätte man evtl. ein besseres Image, schließlich sehen 65W deutlich besser als 100W aus. Vielleicht würde die APU unter Vollauslastung von CPU+GPU auch mehr als 65W aufnehmen, allerdings hält sich ein Llano in dem Fall ja auch nicht ganz an seine 100W. Alternativ prügelt man den Takt einfach noch weiter nach oben:ugly:

Betrachtet man das UV-Potenzial des Llano, ist er eigentlich gar kein so schlechtes Angebot. Noch besser find ich allerdings den FX-6100, welcher grob dieselbe Performance wie ein 1055T erreicht und dabei dasselbe kostet, aber sparsamer zu Werke geht. Ernsthaft. Wobei ich meinen 1055T mit 2 deaktivierten Kernen + Turbo (~X4 925) auch auf 1.072V unter Last (laut CPU-Z) bringen konnte.:D
 
amd failt also weiter :ugly: mir ehrlich gesagt wurscht da mich der technikschrott von amd sowieso nicht interessiert.
 
amd failt also weiter :ugly: mir ehrlich gesagt wurscht da mich der technikschrott von amd sowieso nicht interessiert.

Wo steht wieviel Strom aufgenommen wird wie teuer die APU wird usw? Wenn im PCGH-Test am Ende 100W und mehr raus kommen, dann kannst du es sagen aber vorher ungelegte Eier zu braten ist.... :schief:
 
Ich denke, jeder kann seine dummen Kommentare & Wertungen lassen, wenn er bloß Sinnlosdiskussionen anregen möchte, nur um seine Neigungen auszudrücken & ganz besonders wenn das Produkt nicht einmal auf dem Markt ist. Schon das Wort ,,fail" sagt mir, dass es mit der Bildung da schon etwas schlechter steht.
 
Zuletzt bearbeitet:
Calculated und estimated sind ja nun nicht gerade Wörter die man mit Benchmarks in Verbindung bringt (bringen sollte!). Ein Schelm wer böses denkt :ugly: :D

@edit: don´t feed the troll!
 
Junge, Du springst echt mit beiden Beinen ins Fettnäpfchen. XD Laut verschiedenen Quellen (ich glaube, auch in PCGH verlinkt) erzielt Trinity seinen Geschwindigkeitszuwachs vor allem durch Taktsteigerungen, sowohl bei der CPU als auch bei der GPU (wobei, die soll mehr Shader haben, aber das habe ich nicht im Kopf). Die eigentlichen Architekturänderungen sollen *äußerst* behutsam durchgeführt worden sein. AMD selbst sprach glaube ich von einem Zuwachs von um die 10 Prozent pro Generation pro Jahr. Wie man sieht, wird es noch viiiiiele Jahre dauern, bis man auf dem Niveau von Sandy Bridge-EP angekommen ist. Das schafft man auch nicht durch Takterhöhung, die ja irgendwann gegen eine Wand läuft, sondern da müssen Änderungen an der Architektur durchgeführt werden.

Der Vergleich mit Intels P4 passt, da bleibe ich dabei, denn mit Netburst hatte Intel auch mit der Holzhammer-Methode (viel Takt hilft viel) versucht, die Architekturschwächen gegenüber dem Athlon auszubügeln. Erfolglos, wie man heute weiß. AMD wiederholt gerade den Fehler, allerdings mit dem Hintergrund, dass sie keine Milliarden Dollar in der Hinterhand haben. Wo das hinführen wird, muss man sehen, aber AMD hat sich mit dem BD in seiner jetzigen Form mehr als ein Bein gestellt.

Ist das jetzt angekommen, Junge?

Ja AMD sprach seinerzeit von 10-15% jährlicher Leistungssteigerung bei den Bulldozer Nachfolgern. Aber man sagte dort ebenfalls, dass man die Nachfolger nun auf mehr Desktop Leistung trimmen wolle. Somit muss das nicht unbedingt bedeuten, dass dort für den ersten Nachfolger nur die 10-15% Mehrleistung heraus kommen. Wenn man den Opteron jetzt für den Desktop optimiert, der ja bekannter Massen eine Server CPU ist, könnte da beim ersten mal schon etwas mehr heraus kommen, denn es ist ja geplant auch die pro-Takt Leistung merklich zu steigern.

AMD will viel und sagt viel, wohlmöglich liegt das am Marketing. Käme das aber heraus was man dort verbreitet, dann dürfte der direkte Nachfolger ein bischen mehr bringen als nur die von dir angeführten 10%.


Gruß
 
AMD prügelt die großen Llanos wie auch die kleinen FX, damit die Dinger überhaupt laufen und sich zu Geld machen lassen.

Sind denn die kleinen FX nicht der Ausschuss von den FX-8150 / FX-8120, um auf diese Weise die Verluste bei der miesen Produktion zu minimieren.
Oder handelt es sich tatsächlich um eine eigene Produktionsserie. Darüber hab ich bisher noch nichts gelesen.

Gruß
 
Zurück