Mark Papermaster im Interview: AMDs CTO widerspricht dem Bulldozer-Fail und lobt Never Settle Reloaded

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Mark Papermaster im Interview: AMDs CTO widerspricht dem Bulldozer-Fail und lobt Never Settle Reloaded

Im Gespräch mit PC Games Hardware zeigt sich der Chief Technology Officer zufrieden mit der positiven Entwicklung der Bulldozer-Architektur, gab sich dafür im Gegenzug aber zugeknöpft hinsichtlich der Semi-Custom-APUs sowie den Next-Gen-Konsolen.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Mark Papermaster im Interview: AMDs CTO widerspricht dem Bulldozer-Fail und lobt Never Settle Reloaded
 
Naja, das würde ich nicht ganz so drastisch sehen.

Immerhin hat man ja in der april Ausgabe der PCGH gut sehen können, dass die Architektur noch viele ungenutzte Reserven hat, Bulldozer wird bisher immer noch nicht richtig ausgelastet. Und dass weiterhin Potenzial vorhanden ist, bewies der Richland-Test gestern eindrucksvoll. Und wenn ein Spiel das Potezial von der Architektur richtig nutzen kann, schmilzt der Abstand zu Intel wie Schnee im Sommer, siehe Crysis 3.

Kurz: so schnell würde ich den Bulldozer nicht auf alte Eisen schieben. Schon gar nicht wenn die von Steamroller angesprochenen Änderungen auch gleich greifen.

Nur beim Energieverbrauch ist das ganze bisher ein Fail auf ganzer Linie. Hoffentlich kriegt AMD das auch mal gebacken.
 
Klar sind die Bullies nicht die schnellsten, aber wenn man den Preis betrachtet können sie durchaus eine Alternative zu Intel darstellen.
Der hier oft empfohlene i3-3220 sieht so langsam kein Land mehr gegenüber dem FX-6300, da der FX mittlerweile seinen Kernvorteil ausspielen kann und auch wird. Beide kosten um die 100€.
Wenn man sich einen günstigen Spiele PC zusammenbauen will sind die AMD´s aufjedenfall eine Überlegung wert.
 
Zuletzt bearbeitet:
Die "Ursprung"-Bulldozer sind und waren nie die schnellsten, aber mittlerweile ist die Leistung ganz brauchbar geworden. Wie auch in der News hervor geht, denke ich nicht das es AMD möglich gewesen wäre die Konsolen für sich zu gewinnen, wenn man nicht auf ein flexibel änderbares Design setzen würde. Die APUs zeigen was möglich ist und da wird sicher noch so einiges kommen, was einen gewissen "oha"-Effekt auslösen wird.

sondern sie würden vielmehr die Titel auf den Radeons genießen, da die Performance wie der Preis stimme und das Bundle tolle Spiele enthalte.

Genau so kam es auch zu meiner Entscheidung, eine ASUS DC2 7870 und keine GTX 660Ti zu kaufen..

MfG
 
Zuletzt bearbeitet:
es spielt keine rolle, welches potenzial ein bulli womöglich hat.

ein chip wird an dem gemessen, was er kann, wenn er aufem markt ist. wenn er dann nur eine maue leistung bringt, hilft das keinem. und wenn der der überflieger in disziplinen ist, die keine software wirklich nutzt, dann spricht man gemein hin von "am markt vorbei entwickelt" sprich fail.

ein unternehmen kann nur überleben, wenn es das entwickelt, was gefragt wird, nicht was ideologisch lobenswert wäre.
 
und wenn der der überflieger in disziplinen ist, die keine software wirklich nutzt, dann spricht man gemein hin von "am markt vorbei entwickelt" sprich fail.

ein unternehmen kann nur überleben, wenn es das entwickelt, was gefragt wird, nicht was ideologisch lobenswert wäre.

Dann wäre streng genommen jeder Intel-prozzie für Gamer ein Riesenfail, weil keine Gamersau nach dem integriertem Grafikchip gefragt hat :devil:
 
Aha, Marketing at best.
Wenn die Leute Radeons wegen der Grafikkarte kaufen, warum legt man 4 Spiele bei? :what:
 
Aha, Marketing at best.
Wenn die Leute Radeons wegen der Grafikkarte kaufen, warum legt man 4 Spiele bei? :what:

Ich besitze aktuell eine (noch ziemlich betagte) Radeon und werde wohl in den nächsten Wochen bei Neuanschaffung auf eine Radeon zurückgreifen. Nicht wegen den Games, sondern weil ich das P/L-Verhältnis auch ohne Beigabe sehr gut finde und bisher stets zufrieden mit AMD (hatte auch schon NV-Karten, bei denen ich auch nicht klagen konnte) war.

Die Games wären / sind für mich nur das Sahnehäubchen und kein Grund AMD zukaufen oder zu meiden wenn es nicht so wäre.
 
In dem Fall meinst du wohl eher: :schief:

Aha, Marketing at its best.
Wenn die Leute Radeons wegen der Grafikkarte kaufen, warum legt man 4 Spiele bei? :what:

Als wenn das eine, das andere bedingt. Wer behauptet denn, dass man die Karten nicht kaufen würde, wenn keine Spiele beiliegen würden? Ich jedenfalls hätte die 7870 auch ohne Spiele gekauft (die ich btw bis heute nich angerührt habe), einfach weil sie in meinen Augen konkurrenzlos war/ist.
Die Annahme, die Spiele würde AMD nur aus Nettigkeit beilegen, wäre im Umkehrschluss total naiv und wohl kaum so einen Kommentar wert.
 
was soll er auch anderes sagen.

bulldozer ist ein fail. und daran lässt sich nicht rütteln. basta.

Den Bulli als Fail zu bezeichnen ist nen Fail.
Alleine wegen deinem Nick kann ich deine Aussagen schon nicht für voll nehmen! Beim Bulli läuft nicht alles glatt aber nen Fail ist es definitiv nicht.
Bedenke das Die Aktuelle Intel IB in 22nm Hergestellt wird und die Bullies in 32nm alleine das gib schon einen ordentlichen Leistungssprung. Bei gleichstand der Fertigungstechnologien sieht der Leistungsunterschied es sehr wahrscheinlich nicht mehr so groß aus.

In dem Fall meinst du wohl eher: :schief:



Als wenn das eine, das andere bedingt. Wer behauptet denn, dass man die Karten nicht kaufen würde, wenn keine Spiele beiliegen würden? Ich jedenfalls hätte die 7870 auch ohne Spiele gekauft (die ich btw bis heute nich angerührt habe), einfach weil sie in meinen Augen konkurrenzlos war/ist.
Die Annahme, die Spiele würde AMD nur aus Nettigkeit beilegen, wäre im Umkehrschluss total naiv und wohl kaum so einen Kommentar wert.

Ich hab meine 7950 ohne spiele gekauft und sie hat sogar 420€ gekostet :ugly:
 
Das größte Problem ist mMn dass sie einfach nicht in dem Fertigungsprozess sind wie Intel. Ein 32 nm gegen 22 nm kann man eigentlich nur verlieren.
 
Aha, Marketing at best.
Wenn die Leute Radeons wegen der Grafikkarte kaufen, warum legt man 4 Spiele bei? :what:

Ist genau so wie Purzelpaule geschrieben hat. Ich hab mir auch erst vor 3 Monaten ne 7970 GHz geholt, allerdings gebraucht für ~310€.
Ich hätte mir auch ne neue mit oder ohne Spiele holen können aber wieso wenn ich fast noch volle Garantie hab.
Was ich sagen will: ich hätte mir so oder so ne Radeon gekauft, weil die Performance einfach besser und der Preis niedriger ist als der einer GTX680. Das Featureset der GTX reizt mich jetzt auch nicht unbedingt.
Wenn man sowieso vor hatte sich die Spiele aus dem Bundle zu kaufen - warum sollte man das denn ausschlagen? Sicher kurbelt AMD damit auch den Umsatz an aber es ist auch so, dass genug Leute die Radeon-Karten und ihre Vorteile gegenüber den Geforce-Karten zu schätzen wissen und sich nicht dumm von der Nvidia-Werbung blenden zu lassen und jeden Shit mitzumachen. Nvidia ist in ihrer Propaganda und Preispolitik wirklich so gut, dass sie es schaffen Käufern von Titankarten auf die GTX780 wechseln zu lassen. Das muss man ihnen lassen, sie plädieren auf die Dämlichkeit ihrer Fanboys und haben Erfolg damit. Ach Verblendung - welch ein Segen für Nvidia. DAS nenne ich Marketing at it's best.
 
am Anfang hieß es das ein Modul 160% Leistung eines Kernes haben sollte. Bei Intel müssten es mit dem virtuellen Kern 120% sein, wenn mich jetzt nicht alles täuscht. Beim Bulldozer ist da aber das Problem das jeder "Kern" eines Modules 80% der Leistung eines normalen Kernes hat. Bei Intel sind es dann 100% zu 20%. Im Prinzip her keine schlechte Idee, mit einer vergleichsweise geringen Aufstockung der Transistorzahl 160% Leistung rauszuholen, der Nachteil ist dann eben auch die schlechtere Singlethreadleistung.
der Bulli wa da einfach zu früh dran um sein 4 module/8Kerne vorteil ausspielen zu können.

Vielleicht etwas weit hergeholt, aber den A2 von AUDI wollte auch niemand haben, trotz geringen spritverbrauch (den hat der Bulldozer nicht :ugly:), guter Aerodynamik und relativ großem Innenraum. (über das Design lässt sich streiten:ugly:) jetzt will jeder so ein Auto haben und auch die Gebrauchtwagenpreise steigen mehr als das sie fallen.
 
Der Bulli wird immer besser und ist bei starkem parallelisiertem Arbeiten einem gleichteuren (!) Intel stets überlegen, aufgrund der hinterherhinkenden Effizienz und geringeren IPC hat er eben leider einen schweren Stand. Die Grafikkarten an sich sind vom P/L-Verhältnis sehr gut, auch das Topmodell 7970 kann nach der langen Zeit von ~1,5 Jahren noch sehr gut mithalten. Mit geeigneter Kühlung wirklich tolle Karten mit gutem OC-Verhalten, je nach nötiger Spannung auch sehr effizient.:) Die Spiele, die mittlerweile beiliegen sind eine super Sache und ich hoffe, AMD lässt es sich nicht zu viel kosten und baut damit eine breitere Kundenbasis auf, verdient haben sie es jedenfalls.:daumen:
 
was soll er auch anderes sagen.

bulldozer ist ein fail. und daran lässt sich nicht rütteln. basta.

Als Allwissender bist du allerdings ziemlich unwissend, FX ist kein Fail, es wird sich in den nächsten
Jahren deutlich rauskristallisieren das AMD eigentlich einen sehr innovativen Weg gegangen ist und
Stück für Stück sich selbst in der Gaming Performance an Intel wieder ran hangelt. Die Architektur
ist sehr modern und hat ein Feature Set das Intel erst jetzt mit erscheinen von Haswell in etwa bietet.
Seitens der Leistung in Anwendungen ist ohnehin nichts auszusetzen, nur der Energiebedarf ist halt sehr hoch
aber wen interessierts denn wirklich in einer Zeit wo jeder Ressourcen vom feinsten verbraucht.
Allein das für viele quasi obligatorische Handy das jedes Jahr einem neuen weichen muss, das
neue Auto vor der Tür das bei der Produktion mehr Ressourcen frisst als mein 19 Jahre altes Auto
im rest seines daseins verbrauchen wird.......... Jeder belügt sich doch selbst irgendwo. Oder eben
der Intel user der auf dem Energiekonsum eines AMD Produktes rum hackt aber dafür nen Fermi im
Rechner hat.




es spielt keine rolle, welches potenzial ein bulli womöglich hat.

ein chip wird an dem gemessen, was er kann, wenn er aufem markt ist. wenn er dann nur eine maue leistung bringt, hilft das keinem. und wenn der der überflieger in disziplinen ist, die keine software wirklich nutzt, dann spricht man gemein hin von "am markt vorbei entwickelt" sprich fail.

ein unternehmen kann nur überleben, wenn es das entwickelt, was gefragt wird, nicht was ideologisch lobenswert wäre.


Wenn jeder so denken würde, würden wir uns heute noch mit Keulen auf die Köppe hauen. Einer muss den ersten
Schritt machen nur so gibt es Innovationen. Wenn jeder Hersteller nur Hardware für am Markt befindliche Software
entwickeln würde hättest Du heute weder Smartphone noch einen auch nur ansatzweise so schnellen Rechner.
AMD wie auch die anderen Hersteller müssen eben manchmal neue Marschrichtungen gehen sonst stagniert der
Mark komplett, hierzu nur mal ein Vergleich, als AMD mit 64-bit kam gab es weder OS dafür noch Software die
64-bit unterstützte.....was ist heute? Intel nutzt AMD 64-bit Erweiterung, der Markt ist voll darauf ausgerichtet.
Also erzähl mir nix von am Markt vorbei entwickelt, um das zu glauben bin ich zu alt. :D
 
Als Allwissender bist du allerdings ziemlich unwissend, FX ist kein Fail, es wird sich in den nächsten
Jahren deutlich rauskristallisieren das AMD eigentlich einen sehr innovativen Weg gegangen ist und
Stück für Stück sich selbst in der Gaming Performance an Intel wieder ran hangelt. Die Architektur
ist sehr modern und hat ein Feature Set das Intel erst jetzt mit erscheinen von Haswell in etwa bietet.
Seitens der Leistung in Anwendungen ist ohnehin nichts auszusetzen, nur der Energiebedarf ist halt sehr hoch
aber wen interessierts denn wirklich in einer Zeit wo jeder Ressourcen vom feinsten verbraucht.
Allein das für viele quasi obligatorische Handy das jedes Jahr einem neuen weichen muss, das
neue Auto vor der Tür das bei der Produktion mehr Ressourcen frisst als mein 19 Jahre altes Auto
im rest seines daseins verbrauchen wird.......... Jeder belügt sich doch selbst irgendwo. Oder eben
der Intel user der auf dem Energiekonsum eines AMD Produktes rum hackt aber dafür nen Fermi im
Rechner hat.







Wenn jeder so denken würde, würden wir uns heute noch mit Keulen auf die Köppe hauen. Einer muss den ersten
Schritt machen nur so gibt es Innovationen. Wenn jeder Hersteller nur Hardware für am Markt befindliche Software
entwickeln würde hättest Du heute weder Smartphone noch einen auch nur ansatzweise so schnellen Rechner.
AMD wie auch die anderen Hersteller müssen eben manchmal neue Marschrichtungen gehen sonst stagniert der
Mark komplett, hierzu nur mal ein Vergleich, als AMD mit 64-bit kam gab es weder OS dafür noch Software die
64-bit unterstützte.....was ist heute? Intel nutzt AMD 64-bit Erweiterung, der Markt ist voll darauf ausgerichtet.
Also erzähl mir nix von am Markt vorbei entwickelt, um das zu glauben bin ich zu alt. :D


ich hoffe du erkennst deine eigenen widersprüche. bulli soll kein fail sein, aber dann fängst du an die ganzen nachteile und schwächen aufzuzählen....wen interessiert, was in ein paar jahren ist. im moment, lohnt sich ein bulldozer nicht. da ist intel überall besser.

und was hat ein befehlsfeature wie 64bit mit rohleistung zu tun? das sollte ja wohl kein kompromiss sein.

he, dein neues smartphone hat nen octacore mit 16gb ram...aber dafür kein display....hm wow.
 
ich hoffe du erkennst deine eigenen widersprüche. bulli soll kein fail sein, aber dann fängst du an die ganzen nachteile und schwächen aufzuzählen....wen interessiert, was in ein paar jahren ist. im moment, lohnt sich ein bulldozer nicht. da ist intel überall besser.

und was hat ein befehlsfeature wie 64bit mit rohleistung zu tun? das sollte ja wohl kein kompromiss sein.

he, dein neues smartphone hat nen octacore mit 16gb ram...aber dafür kein display....hm wow.

Lesen und verstehen........
 
Zurück