AMD Accelerate: A8-35W-Vierkerner gegen Core-i3-17W-Dualcore - Unfairer Vergleich?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu AMD Accelerate: A8-35W-Vierkerner gegen Core-i3-17W-Dualcore - Unfairer Vergleich? gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Accelerate: A8-35W-Vierkerner gegen Core-i3-17W-Dualcore - Unfairer Vergleich?
 
Hier tritt ein Vierkerner mit 35-Watt-TDP und Turbo bis 3,1 GHz gegen eine Low-Power-Dualcore (mit Hyperthreading) und 17 Watt TDP an

Die TDP vom i3 liegt bei 15 Watt. Und die Chipsatz TDP bei AMD kommt noch dazu. Irgendwann vergleicht AMD noch seine 100W APUs mit Intels 15W Modelle, echt erbärmlich zu was AMD fähig ist.
 
Für mich zählt am Ende Preis/Leistung ganz einfach.
Bei so einer CPU zählt für mich vor allem Verbrauch und CPU-Leistung. Die iGPU der APU mag zwar schneller sein, in der Praxis gewinnst damit aber auch keinen Blumentopf.

Wenn AMD 45/65W APUs mit einer iGPU in der Leistungsregion einer 7750/7770 rausbringt, wird es interessant für mich.
 
Bevor hier von einem unfairen Vergleich spricht, sollte man erstmal die Betonung auf die Grundlage dieses Vergleichs legen: Der PREIS!

Genau dort sollte es greifen, nicht beim "Technikvergleich" 15W gegenüber 35W. Beide sind sehr sparsam und für einen A8 sind 35 Watt nun wirklich extrem wenig.
Und genau dort kann AMD auch Intel angreifen, beim mehr fürs selbe Geld.
Auch der Ton des Sprechers klingt mehr nach Intel-Fanboy als nach reeller Berichterstattung. "Das kommt alles nur durch die höhere Leistung der Grafikeinheit"... Ein großes und ernstzunehmendes Plus für AMD. Dass diese ganzen Programme jedoch auch zeitgleich mehrere Prozessorkerne belasten und ein nicht unbeachtlicher Teil dieser Mehrleistung aus dem mehr an nativen Kernen entsteht, wird gleich abgetan.

Letztendlich ist es eine Werbeaktion und so muss man diese Vorführung auch verstehen. Natürlich will sich AMD im besten Licht präsentieren und für dümmliche Reporter einer nicht immer wirklich fachbezogenen Presse sind hübsche Bilder nunmal verständlicher als reine Zahlen. Wobei hier bei Multikernanwendungen der A8 dem kleinen i3 sicherlich auch meilenweit davon gerannt wäre, nur ist x264 eben nicht schnell und hübsch darzustellen, dass es selbst der Typ von der Bank versteht, der überlegen soll, ob man vielleicht einen neuen Kredit freigibt...
 
Bevor hier von einem unfairen Vergleich spricht, sollte man erstmal die Betonung auf die Grundlage dieses Vergleichs legen: Der PREIS!

Genau dort sollte es greifen, nicht beim "Technikvergleich" 15W gegenüber 35W. Beide sind sehr sparsam und für einen A8 sind 35 Watt nun wirklich extrem wenig.
Und genau dort kann AMD auch Intel angreifen, beim mehr fürs selbe Geld.
Auch der Ton des Sprechers klingt mehr nach Intel-Fanboy als nach reeller Berichterstattung. "Das kommt alles nur durch die höhere Leistung der Grafikeinheit"... Ein großes und ernstzunehmendes Plus für AMD. Dass diese ganzen Programme jedoch auch zeitgleich mehrere Prozessorkerne belasten und ein nicht unbeachtlicher Teil dieser Mehrleistung aus dem mehr an nativen Kernen entsteht, wird gleich abgetan.

Letztendlich ist es eine Werbeaktion und so muss man diese Vorführung auch verstehen. Natürlich will sich AMD im besten Licht präsentieren und für dümmliche Reporter einer nicht immer wirklich fachbezogenen Presse sind hübsche Bilder nunmal verständlicher als reine Zahlen. Wobei hier bei Multikernanwendungen der A8 dem kleinen i3 sicherlich auch meilenweit davon gerannt wäre, nur ist x264 eben nicht schnell und hübsch darzustellen, dass es selbst der Typ von der Bank versteht, der überlegen soll, ob man vielleicht einen neuen Kredit freigibt...

Wobei man trotzdem das low Power Modell des Chips hätte verwenden können, also den A8 5545M. Der hat nur 19W TDP, 400Mhz weniger (sowohl Standard- als auch Turbotakt), dafür aber sogar eine Potentere Grafik (384 statt 256 Stream Prozessoren, wenn auch bei niedrigerem Takt), und wäre somit in vergleichbaren Ultrabook bzw. Ultrathins zu finden. Wie sich beide Modelle aber preislich vergleichen weiß ich nicht, da ich keine Preise für die Chips finden konnte.
 
Bei so einer CPU zählt für mich vor allem Verbrauch und CPU-Leistung. Die iGPU der APU mag zwar schneller sein, in der Praxis gewinnst damit aber auch keinen Blumentopf.

Wenn AMD 45/65W APUs mit einer iGPU in der Leistungsregion einer 7750/7770 rausbringt, wird es interessant für mich.

In diesen Fall sind es 20W unterschied selbst wenn der Rechner 24h an 365 Tagen an ist fallen ist der Strompreis unterschied immer noch unter 50€
Der Verbrauch spielt eher eine untergeordnete rolle meiner Meinung nach ist das wichtigste Preis/Leistung.
 
In diesen Fall sind es 20W unterschied selbst wenn der Rechner 24h an 365 Tagen an ist fallen ist der Strompreis unterschied immer noch unter 50€
Der Verbrauch spielt eher eine untergeordnete rolle meiner Meinung nach ist das wichtigste Preis/Leistung.
Hier geht es nicht um den Stromverbrauch der Kosten wegen sondern der Wärmeentwicklung und der Akkulaufzeit wegen. 20W oder mehr als 50% höherer Verbrauch stellen eine ganz andere Anforderungen an die Dimension/Lautstärke der Kühlung. Oder an die Haltbarkeit eines Akkus. Wenn man den ganzen Tag auf einer Anlage ohne 230V Stromanschluss sitzt ist man froh wenn der Akku lange hält.
 
Am Ende des Videos kam ich zu dem Entschluss.
Wer surft, spielt und sieht sich auch noch gleichzeitig ein Video an?

Der Verbrauch spielt eher eine untergeordnete rolle meiner Meinung nach ist das wichtigste Preis/Leistung.

Bei Notebooks / Tablets / Hybridlaptops spielt der Verbrauch eine sehr sehr sehr große Rolle auf Grund der Akkuleistung.
Und am Desktop sind +100-200 Watt auch nicht gerade vorteilhaft unter Last.
Abwärme, Kühlung, Stromkosten, Verschleiß, Netzteil etc.

Eine GTX780 verbraucht unter Last (Spiele) im Durchschnitt 60-80 Watt weniger als eine 7970GHz und ist dabei noch wesentlich schneller.
AMD wird mit der HD9 Serie auf jeden Fall den Stromverbrauch senken müssen um konkurrenzfähig zu bleiben.
Und bei den CPUs verbraucht ein FX8350 unter Volllast (Anwendungen@80%-100% Auslastung, nicht Spiele!) im Durchschnitt 80-100 Watt mehr als ein i7 Ivy Bridge und 120-140 Watt mehr als ein i5 Haswell.

Sind gesamt also ~150-200 Watt mehr um auf eine vergleichbare Leistung zu kommen und das ist sehr sehr viel.
Alles ohne OC @ Standardtakt.
 
Zuletzt bearbeitet:
In diesen Fall sind es 20W unterschied selbst wenn der Rechner 24h an 365 Tagen an ist fallen ist der Strompreis unterschied immer noch unter 50€
Der Verbrauch spielt eher eine untergeordnete rolle meiner Meinung nach ist das wichtigste Preis/Leistung.
Naja für 50euro bekomme ich 10 packungen Zigaretten.
Um 50 euro netto in der Tasche zuhaben müssen so einige Leute einen Ganzen Tag Arbeiten.
Oder stell dir das so vor:
Beide Laptops kosten ca. gleich viel Aber bei dem Intel Laptop bekommst du jedes jahr einen 50euro Gutschein geschenkt^^. Hmm, meine wahl würde auf das Stromsparende system fallen.
50euro ist schon eine menge Geld.
 
Bei so einer CPU zählt für mich vor allem Verbrauch und CPU-Leistung. Die iGPU der APU mag zwar schneller sein, in der Praxis gewinnst damit aber auch keinen Blumentopf.

Wenn AMD 45/65W APUs mit einer iGPU in der Leistungsregion einer 7750/7770 rausbringt, wird es interessant für mich.

des dauert aber noch ein weilchen :ugly:
 
Eine GTX780 verbraucht unter Last (Spiele) im Durchschnitt 60-80 Watt weniger als eine 7970GHz und ist dabei noch wesentlich schneller.
AMD wird mit der HD9 Serie auf jeden Fall den Stromverbrauch senken müssen um konkurrenzfähig zu bleiben.
Und bei den CPUs verbraucht ein FX8350 unter Volllast (Anwendungen@80%-100% Auslastung, nicht Spiele!) im Durchschnitt 80-100 Watt mehr als ein i7 Ivy Bridge und 120-140 Watt mehr als ein i5 Haswell.

Sind gesamt also ~150-200 Watt mehr um auf eine vergleichbare Leistung zu kommen und das ist sehr sehr viel.
Alles ohne OC @ Standardtakt.

du Vergleichst die fallschen Leistungklassen, eine Radeon HD 7970 geht ab 330 Euro los, eine GTX 780 ab 530 Euro. Es stimmt zwar das die GTX 780 ca 60 Watt weniger verbaucht, aber sie ist gerade mal lächerliche 10 % schneller im Durschnitt ! Das merkt man nicht mal.

Da nehme ich lieber die höhere Abwärme/Verbrauch in kauf, habe dafür aber 3 Spiele dabei und zahle 200 Euro weniger. Wobei die Karten im Idle gleichviel vebrauchen.

Also würde ich sagen setzen 6 ! :)
 
Naja für 50euro bekomme ich 10 packungen Zigaretten.
Um 50 euro netto in der Tasche zuhaben müssen so einige Leute einen Ganzen Tag Arbeiten.
Oder stell dir das so vor:
Beide Laptops kosten ca. gleich viel Aber bei dem Intel Laptop bekommst du jedes jahr einen 50euro Gutschein geschenkt^^. Hmm, meine wahl würde auf das Stromsparende system fallen.
50euro ist schon eine menge Geld.

die nicht mal ganz 50€ sind aber nur bei 24h am Tag 365 tage im Jahr Nutzung bei 2h nutzung am tag was wohl realistischer ist dürften das dann so 3,50-4,00€ was auf das jahr gesehen nix ist.
 
Eine GTX780 verbraucht unter Last (Spiele) im Durchschnitt 60-80 Watt weniger als eine 7970GHz und ist dabei noch wesentlich schneller.
AMD wird mit der HD9 Serie auf jeden Fall den Stromverbrauch senken müssen um konkurrenzfähig zu bleiben.
Und bei den CPUs verbraucht ein FX8350 unter Volllast (Anwendungen@80%-100% Auslastung, nicht Spiele!) im Durchschnitt 80-100 Watt mehr als ein i7 Ivy Bridge und 120-140 Watt mehr als ein i5 Haswell.

Also wenn AMD das so macht wie bei den FX Prozessoren verbraucht die HD9 Serie mindestens 400 Watt :ugly:
 
Unfairer Vergleich?
Ja und nein.

Man vergleicht 32nm vs. 22nm, da kann AMD gar nicht anders als mehr Energie verbrauchen.
Auf der CPU Seite lässt AMD die Hosen runter, denn unabhänig vom Verbrauch,
ihre CPU Architektur braucht in der Tat satte 3,1GHz (8077 Points*) um die 1,7GHz (7434 Points*) des Intels, klar schlagen zukönnen.
Das geht auf Dauer nicht gut, Preis/Leistung hin oder her.
* = Cinebench R10 Rendering Multiple CPUs 64Bit

Die GPU Seite geht klar an AMD, hier kann man Intel nur raten, schleunigst Nvidias Kepler GPU IP zu lizenzieren,
denn ihr Trauerspiel mit ihren iGPU können sie sicherlich aussitzen,
aber aus Kundensicht allgemein und insbesonders aus der des Technik-Geeks, ist auch das nicht optimal.
 
Der Vergleich ist unfähr , AMD vergleich dort ausschliesslich wie im Video zu sehen die Grafikleistung mit einer Intel HD Graphics 4400 gegen die Leistung einer dezidierten Radeon HD 7570M des A8-5550M (Radeon HD 8550G) wie auf http://www.notebookcheck.com/AMD-A-Series-A8-5550M-Notebook-Prozessor.89535.0.html beschrieben .
Beide Grafiken sind nicht wirklich vergleichbar, ausserdem wissen wir ja das Intel deutlich stärkere Grafiken im Notebooksegment zur verfügung hat , wenn es stärker sein muss. Die Iris Pro schlägt jede onboard radeon.
 
Naja für 50euro bekomme ich 10 packungen Zigaretten.
Um 50 euro netto in der Tasche zuhaben müssen so einige Leute einen Ganzen Tag Arbeiten.

Na Das AMD System kostest sicher weniger, wenn du also so geil auf Zigaretten bist kannst du dir direkt die Differenz in Zigaretten Päckchen kaufen, bevor du deinen Intel Lappi Viele Jahre am Stück laufen lässt um den Preis zu kompensieren und dir Zigaretten kaufen zu können :ugly: :P

@Voyager10: Die Iris Pro schlägt sogar den Mittleren Ivy Bridge E was den Preis betrifft und damit meine ich den Intel Core i7-4930K der bei über 500 €angesiedelt ist und du könntest dir wahrhscheinlich NUR von dem Preis der APU eine GTX780 kaufen ^^
 
Zurück