Ist AMDs Zambezi-Bulldozer bis zu 50 Prozent schneller als ein X6 1100T oder i7-950?

naja es ist ja so, dass amd die 50% zuwachs auf einen Test bezieht, der Anwenungen und Spiele betrachtet. Da der BD, aufgrund seiner erhöhten Anzahl an Kernen bei Anwendungen gegenüber Spielen deutlich besser, im Vergleich zum Primus 2600k, abschneiden wird , wird ein Vorsprung von 50% im Mix(anwenungen Spiele) nicht ausreichen, um einen Vorsprung von 50% bei Spielen zu erreichen.

Oder anders ausgedrückt: die 50% zuwachs, die amd erwähnt, sind zum großen Anteil (meine vermutung) durch gute Mulicoreperformance entstanden.
Ein Bsp. Wenn jetzt der bd ein Zuwachs von 70% bei Anwendungen hat und Anwendungen und Spiele gleich gewichtet sind, dann ist der Spielezuwachs nur bei 30%.
Diese 30% reichen aber nicht aus, um den Vorsprung von sb bei spielen auszugleichen.
 
Zuletzt bearbeitet:
Nen SB ist aber eigentlich auch nicht 50% schneller als nen 920 allein bei den Spielen.

Wenn du dir den Test auf CB anschaust, dann siehst du, dass SB bei 1680 grad mal 18% schneller ist als nen i7-930, der nur marginal schneller ist als ein 920er.

In 640x480 ist der Abstand mit maximal 38% zwar etwas größer, aber immer noch weit weg von 50%....

Dazu kommt, wer zockt in 640x480? Also ich nicht. Und selbst die 1680 Tests wurden ohne AA etc etc gemacht. Mit schrumpft der Abstand noch VIEL weiter.

Selbst nen Core2Quad/Duo kann bei genügend AA und Auflösung fast jede GPU befeuern. Ne CPU hat bei den entsprechenden Einstellungen kaum einen Einfluss auf die FPS, da du einfach ins GPU limit rennst.

Achso und bei dem "Game" Test wurde wohl 3DMark06 verwendet. Da ist der 2600k ganze 42% schneller, als der 920er. Das Ding ist aber nicht wirklich vergleichbar.

Zumal man berücksichtigen sollte das bei Cinebanch11x der BD mal locker flockig doppelt so schnell ist wie der 920 und der 1100T!

Link
 
Mir ist nicht ganz klar, warum du dich jetzt auf den 920 bzw 930 beziehst?
Dass 640.. nur den Fall zeigt, wenn die Grafikkarte nicht limitiert, ist klar. Und dieser Fall zeigt natürlich nicht die Wirklichkeit(noch nicht) Aber wenn man Ende des Jahres eine 680gtx alleine oder als sli einsetzt, ergibt sich dann schon wieder ein anderes Bild. Dann wird der Abstand wieder größer.
Zumal man berücksichtigen sollte das bei Cinebanch11x der BD mal locker flockig doppelt so schnell ist wie der 920 und der 1100T!
Ja genau. Das ist ja genau das Problem. Wenn die Anwenungsperformance deutlich über der 50% Marke liegt, muss im Umkehrschluss die Gamingperformance weit darunter liegen.

Ich will eine cpu kaufen, die auch bei Einsatz einer späteren Grafikkartengeneration(9 Monate später) nicht limitiert.
 
Jetzt weiss ich was du meins und gibt auch Sinn, aber ich warte wirklich bis er da ist.
Wenn ich bei AMD für die Werbung verantwortlich wäre, dann würde ich die Tests möglichst schlecht aussehen lassen. Und wenn er dann kommt... booom! Die Bombe platzen lassen.
Aber mal schauen wie sich das alles entwickelt.

Zu deinem letzten Satz:
Ich würde mir lieber jedes Jahr nen neuen AMD Prozessor für 200-300€ kaufen als eine Grafikkarte für 450!
Bin im Moment jedenfalls zufrieden mit dem 1090T, auch wenn die Core-i, oder SB- Modelle schneller sein sollen.
Spiele am meisten Gothic 3 mit der PCGH-Ultra-Ini und habe schon des öfteren nebenbei Filme decodiert.
Also wenn der Bully nur 25% (als Beispiel) schneller wird als der 1090T, bin ich schon zufrieden.
 
:rolleyes:

Das ne CPU limitiert, egal ob jetzt mit 1 oder 2 GPUs ist nicht so schnell der Fall, denn im gleichen Maße steigt die Auflösung und oder Tesselation und oder Texturen und oder AA/AF Modi.

Die Meisten Sachen werden ja von der GPU komplett übernommen. Selbst die Texturen kann sich im Prinzip die GPU per DMA Controller von allein holen aus dem RAM, ohne die CPU auch nur an zu fassen.

Da ist eher mal der Flaschenhals beim RAM Zugriff auf der GPU vorhanden, oder dort einfach bei der Logik etc etc.

Die CPU ist wirklich heute untergeordnet. So große Schritte macht die KI etc im Vergleich zur Grafik einfach nicht. Gut es gibt Games wie GTA4 und Anno die teils einfach komisch programmiert sind wegen dem Consolenport oder halt einfach doch recht viel KI einbringen können durch die Massen an Einheiten und wirtschaftlichen Verflechtungen.

Im Allgemeinen bekommst du durch ne CPU aber nicht sonderlich viel mehr Leistung raus. Klar hier mal 1 oder 2% und dort vielleicht mal auch nen paar mehr, das wars aber. Die Games heute sind viel stärker von ner guten GPU abhängig.

Ich zock mit dem E8400@4GHz auch GTA ohne echte Ruckler etc. Klar ist auch mal nen framedropp dabei, aber damit kann ich leben. zu 98% läuft das game flüssig, und das mit den meisten Einstellungen auf Max und Sicht/Fahrzeuge auf 50% rum. Das ist ok, und mehr würde eventuell auch gehen, aber da geht schlicht der GPU der RAM aus. 1024MB sind halt für GTA4 doch zu wenig.....

Zumal Sandy grad nen guten Vorsprung in Anwendungen zu den alten CPUs raus holt.

Also brauchst dir echt keine Gedanken über die CPU machen wenn ne fiktive 680 GTX kommt :rolleyes:

Und btw ich bezieh mich auf den 920/930 weil der 920 neben dem 1100T auch auf besagter Folie steht, und ich eben für den 920 eben nicht die entsprechenden Daten gefunden hab, wobei sich der 920 und der 930 nicht viel geben sollten.
 
Ja sofern man ueberhaupt glaubt das die Folie echt ist !
Was viele schon angezweifelt haben und das ist ja auch berechtigt , denn ich weiss nicht ob ich nochmal eine CPU von einer Firma kaufen wuerde die nicht einmal weiss das der Core i7 950 nicht auf Sockel 1156 sitzt !
Ich denke das weiss AMD sehr gut von denn Logischen fehlern ganz ab sieht das eher nach Fake aus , schon die Farbwahl ist nicht wie auf anderen AMD Typischen Folien ... also in meinen Augen Fake und nicht die Diskussion wert ...

mfg F-4
 
Was aber schon auffällt ist das AMD kaum Kritik an der Veröffentlichung dieser Folien übt - bei früheren Fake Tests und Fake Folien hat AMD, vor allem JF, diese in Foren sehr stark kritisiert und sogar bewirkt das "News" mit Fake Folien entfernd werden müssen. Zu diesen schreibt er lediglich das er die Werte nicht bestätigen kann - eine ziemlich milde Reaktion im vergleich zu früheren, offensichtlichen Fakes. Scheint also das doch zumindest etwas wares dran zu sein scheint.

mfg
 
Was aber schon auffällt ist das AMD kaum Kritik an der Veröffentlichung dieser Folien übt - bei früheren Fake Tests und Fake Folien hat AMD, vor allem JF, diese in Foren sehr stark kritisiert und sogar bewirkt das "News" mit Fake Folien entfernd werden müssen. Zu diesen schreibt er lediglich das er die Werte nicht bestätigen kann - eine ziemlich milde Reaktion im vergleich zu früheren, offensichtlichen Fakes. Scheint also das doch zumindest etwas wares dran zu sein scheint.

mfg

Ich koennte jetzt mit sowas wie Taktik kommen und was weiss ich aber was soll man auf eine kann und sollte wahres dran sein schon Antworten ?
Alles in allem hat AMD bei denn GPUs schon ziemlich dicht gemacht und wenn ich an die Geruechte denke ...
Dazu was waren alle mies drauf als die HD 6970 nicht die Hyper Karte war ... Mittlerweile ist der Hype Um und die Karte wird gekauft oder auch nicht , Selavi ;)
Jedenfalls denke ich das auch diese Folie mehr als nur Spekulation ist , allein schon der Aufbau 3 Benchs Aneinander die dann 50 % ergeben sollen und der Falsche Sockel beim I7 , dazu das Fusion Logo unten Links , was hat das auf einer BD Folie zu suchen ?
In meinen Augen Fake , sonst kann jeder sich seinen Teil denken , auf jedenfall genau das richtige fuer so Proll Posts ala "ich wusste doch Bulldozer wird ********" etc.

mfg F-4
 
Einfach mal abwarten. Auf der CeBit einfach mal nachhaken bei AMD. Ich werde es da auf jeden Fall tun. Zumal ich das im letzten Jahr schon getan habe und mir dort gesagt wurde etwa 40% schneller als die Intel. Ich gehe mal davon aus, dass da etwas wahres dran ist.

Aber eins weiß ich mit sicherheit. Ein Intel wird meinen PC nicht noch mal Verseuchen, DRM etc brauch ich nicht von der CPU aus egal in welcher Art und Form. Lohnt für mich auch nicht. Bei AMD weiß ich wenigstens das etwas aus Deutschland kommt und wir nun mal die Beste Quallität haben in der Welt.
 
Ein Intel wird meinen PC nicht noch mal Verseuchen, DRM etc brauch ich nicht von der CPU aus egal in welcher Art und Form. Lohnt für mich auch nicht.

Du hast dich offensichtlich noch nichtmal eine einzige Sekunde darüber informiert für was der DRM von intel überhaupt genutzt wird, anders kann man den Post eigentlich gar nicht beurteilen.

mfg
 
Naja, vielleicht sieht er auch einfach nur mehr Einsatzzwecke für solche Funktionen als du...

@Jan565:
Haben die schon von von den Sandy-b!tch-Prozis geredet, oder von den i7?
Laut PCGH sind ja schon seit letztem Jahr genug Samples unterwegs und die von AMD haben sicherlich auch gute Quellen. Also könnte das ja theoretisch möglich sein.
 
Wieso BD bringen, wo noch Optimierungspotential besteht, wo einem klar ist das Intel SB schnell bringen kann, man selbst aber nichts mehr in der Hinterhand hat und mit den aktuellen Preisen/Margen noch ganz ok leben kann (man macht ja endlich wieder einen operativen Gewinn!).

Dazu kommt ja noch, das der 32 nm Prozess einfach nicht früher fertig wurde. Ist ja jetzt immer noch so, das es Spitz auf Knopf geht, und man sich entscheiden musste was man zuerst bringt Bobcat oder BD.

Naja, und nen umgekehrter Shrink wie bei der 69x0 ist nicht grad optimal und verschlingt wieder Ressourcen.
 
Du hast dich offensichtlich noch nichtmal eine einzige Sekunde darüber informiert für was der DRM von intel überhaupt genutzt wird, anders kann man den Post eigentlich gar nicht beurteilen.

mfg

Ditto.

Das s. g. DRM (von Intel selbst als Intel Insider bezeichnet) hat mit DRM an sich garnichts zu tun.

Bei Intel Insider handelt es sich nicht um einen einzelnen Prozess, der irgendwas unterbinden soll, sondern um eine Video-on-Demand Platform, die nur auf diesen Prozessoren läuft und dadurch für eine transparentere Kopierschutzkette sorgen soll, da es eben als Standard aufgebaut ist.
 
Zurück