CPU-Support-Liste von Gigabyte zeigt sechs Bulldozer-Modelle im B2-Stepping mit Takt und TDP

so ne lange verzögerung is nicht gut.

damit sinkt mein vertrauen in die cpu immer mehr.

naja der bulli kommt bei mir rein ob die erste oder zweite cpu generation muss ich noch abwägen.

ein vorteil hat die ganze sache nun hab ich das geld schon zusammen zum sparen war ja lang genug zeit.


Wie kann man auf etwas vertrauen, von dem es noch keine offiziellen, verläßlichen Daten gibt? :ugly:

Aber ich finds schon klasse: Ich hätte mich ja so schwarz geärgert, wenn ich

- gewartet hätte (denn in der Zwischenzeit habe ich mehrere Filme mit meinem 2600k geschnitten, das ist mehr Geld wert gewesen, als ich mit BD vielleicht gespart hätte)
- oder so blöd gewesen wäre, mir ein AM3+ - Board samt "Übergangs-CPU-bis-der-BD-da-ist" gekauft hätte

Was bin ich froh.

Und irgendwie flacht meine Spannung auf den BD auch stark ab. Na und, dann kommt er eben irgendwann. Mal schaun, was es dann bringt.

Wie war das auf den AMD-Folien bei Präsentationen immer: "Alle Informationen können ohne Vorwarnung von AMD geändert werden" oder so ähnlich, eben auch das Release-Datum.

Gruß

Zweiblum
 
Ich finde es auch schrecklich mit der Warterei, aber auf der anderen Seite kann es mir eigentlich auch egal sein, ich rüste nur noch im Spätfrühling auf, da gibt es meiner Erfahrung nach meist die besten Preise. Und bis dahin kann ich mir in aller Ruhe anschauen wie die neusten Generationen CPUs beider Hersteller sich P/L-technisch gegenüberstehen (inkl. Mobo, Kühler und Ram) und mich dann entscheiden.
Für alle, die sich in Kürze mit leistungsfähigerer Hardware eindecken möchten würde ich im Moment eher den 2600k mit einem ordentlichen Board und empfehlen, wenns um Games geht.
Die AM3+ Boards könnten jedoch trotzdem interessant sein, wenn man mal bedenkt dass sie teilweise SLI und CF unterstützen, wer also einen PhenomII mit <3GHz und 4 Kernen oder mehr besitzt und SLI nutzen möchte, weils bei ihm halt mehr Sinn macht als ein CPU-Upgrade, der könnte auch jetzt schon mit einem AM3+ Board liebäugeln.

Letztendlich ist die individuelle Ausgangssituation des Users maßgeblich für die sinnvollste Lösung.
Wer da einfach alles über einen Kamm schert, könnte u.U. viel zu viel Geld für zu wenig oder gar keine Mehrleistung in den persönlichen Anwendungen/Spielen ausgeben.
Und für alle, die nicht aufs Geld schauen müssen: Das teuerste Produkt ist nicht immer das beste oder möglicherweise sogar (teilweise) inkompatibel zu anderen Komponenten.
 
In meinem aktuellen PC steckt aktuellste High-End Hardware auf AM3-Basis. Alle Komponenten rennen ordentlich - bis auf die CPU. Nachdem mein Triplecore das Freischalten auf 4 Kerne nur ein Jahr lang mitmachte, musste ich auf einen kleinen Athlon II X2 245e umsteigen. Für Audio/Videobearbeitung, zum Packen/Entpacken oder anderen Konvertierungsaufgaben ist das Teil einfach erbärmlich.
Aber beim Zocken habe ich keinerlei Probleme. Da ich auch über ein extrem getuntes Windows verfüge, kann ich auch aktuelle Titel noch sehr angenehm zocken. Das CPU-Limit wird meist nur bei Strategiespielen wie SOASE deutlich. Gut, dieser Luxus wird nur durch ein OC auf 2x3,5GHz möglich. Außerdem läuft alles nur noch mit 100% CPU-Auslastung. Dieser Zustand ist noch erträglich, jedoch muss der Bulldozer jetzt wirklich mal kommen. Das ist der einzige Flaschenhals in meiner Kiste! AMD, es wird Zeit!
 
Jetzt bringst du aber was durcheinander. Denn die Spezifikationen gelten für 20,8 GB/s bzw. 25,6 GB/s pro Richtung. Die 16 GB/s und die 20,8 GB/s der AMD CPUs, gelten aber für beide Richtungen. Somit hattest du im Prinzip mit deinem 2.0 doch Recht, ich wusste aber nicht, dass AMD in den CPUs nur 16 Bit breite Leitungen verwendet.

Naja - ich hab nichts durcheinandergebracht, ich habe direkt mit den spezifizierten Duplex-Bandbreiten für ein 16 Bit Interface gerechnet. Natürlich sehen die genauso aus, wie die maximalen pro-Richtung Specs :)

1. Sind die 16 GB/s des 1155 für die Graka recht witzlos, da sie eben nur für die Graka sind. Was du als kleinen Punkt in der Klammer abtust, ist halt nunmal der Clou, zumal Intel für Consumersysteme ja auch richtigerweise den GPU Anschluss größer Ausfallen lässt. Beim So1156 gabs ja sogar noch Probleme mit USB 3.0, das gibts bei AMD auch bei gleicher nomineller Bandbreite nicht.

Die Probleme mit USB3 resultierten nicht aus der mangelnden Anbindung des Sockels - sondern aus den mangelnden Fähigkeiten der Chipsätze. Der P55 konnte nur PCIe1-Geschwindigkeit, das hat sich mit der 6er Reihe zum Glück erledigt. Die Verbindung zum Sockel wird nur dann zur Bremse, wenn man mehr als PCIe x4 von/zum Chipsatz bräuchte - was dann doch eher selten der Fall ist. (und aufgrund der nur 8 Lanes - abzüglich PCI und LAN nur 6- der Chipsätze auch in Zukunft nicht häufig werden wird. Ein weiterer Punkt, an dem AMD-Chipsätze im Vorteil sind. Aber eben nicht AMD CPUs bzw. nicht die Verbindung zwischen beiden, sondern die Chipsatzfähigkeiten gegenüber weiteren Geräten)

Deswegen benutzt Intel bei den Server CPUs ja auch QPI, was uns zum nächsten Punkt führt
2. Wo bitte soll dann QPI merklich schneller sein? BD hat also 10,8 GB/s pro Richtung ein Core i7 mit 6,4 GT/s 16 GB/s mit Overhead (Brutto) und 12,8 GB/s ohne Overhead (Netto). Ich weiß leider nicht wie große der Overhead bei HT ist, aber die maximale Nettobandbreite von QPI entspricht exakt der maximalen Bruttobandbreite von HT. Das sind 25% mehr also nicht so viel.

25% sind nicht viel :huh:

Mir ist auch nicht bekannt, dass Intel bei seinen Xeons mehrere Leitungen einsetzt.

Zwei bei den Dual-CPU Xeons für So1366, vier bei den So1567 Systemen. Der Verbindungsvorteil steigert sich hier sogar gegenüber AMD, denn bei der Dual-Sockel-Plattform verfügt der Chipsatz über zwei QPI-Ports und kommuniziert direkt mit beiden CPUs, während AMDs C32 Platform afaik einen Chipsatz an eine CPU anbindet, die Daten der anderen müssen also durchgereicht werden. Beim Vergleich G34 - So1567 bleibt dieser Vorteil z.T. erhalten (je ein Chipsatz verbindet zu zwei von 4/8 Xeons, bzw. eben nur zu einem von max. vier Opterons), ansonsten herrscht -bis auf die "nur" 25% Gleichstand mit 4 16 Bit HT-Links gegen 4 QPIs.

Im Prinzip müssten eig. auch die 10,8 GB/s eines Desktop Bulldozer zumindest für Dual Sockel Systeme locker ausreichen. Man hat ja hier keine Spiele am Laufen, die die ganze Zeit Daten über PCIe streamen.

Das nicht. Dafür aber die Speicheranfragen einer ganzen CPU im Worst-Case, was wesentlich schlimmer ist.
Davon abgesehen scheint PCIe-Coprocessing massiv im Kommen zu sein. Nicht umsonst verwenden die kommenden Intel-Plattformen QPI nur noch für die CPU-Verbindung, integrieren PCIe aber direkt in die CPUs.

Aber auf Server wollte ich eigentlich gar nicht hinaus, sondern nur an die mangelhafte Verbindung zwischen GPU/Chipsatz und Speichercontroller/CPU. Wenn man einen NF200 an einen Sandy Bridge dranhängt, wird -vollkommen zu Recht- darauf hingewiesen, dass es eben doch nur 16 Lanes bleiben. Nimmt man einen HT-Link mit der (freien) Bandbreite von 16 Links und hängt einen 990FX dran, wird von vollwertigen 32 Lanes gesprochen. (genauso wie bei einem X58, der eigentlich nur PCIe2 x16 + x4 mit maximaler Leistung bedienen kann)


Es wurde ja mal über Inkonsistenzen beim cache geredet. Könnte ja sein, das der bei bei dem Bench total failt, sodass dieser so berechnet wurde, als hätte er gar keinen On-Die Cache (nicht mal die L1 caches). Sowas würde jeden aktuellen Prozessor extremst ausbremsen

Schon allein der Ausfall des L3 dürfte größere Einbußen zur Folge haben, als hier zu sehen ist. So oder so ist keine Ursache eine Entschuldigung, solange AMD dieses Stepping auf den Markt bringt - und davon spricht die Gerüchteküche.
 
Zurück