[Sammelthread] AMD K15 Bulldozer

Die ATI Radeon X1900 XTX ist keine 6 Jahre alt, kostete aber trotzdem mehr als 600€. Dasselbe galt für die Radeon X800er High-End-Modelle und die Radeon X1800 XT. Und die Athlon 64 X2er sind noch keine 6 Jahre alt, deren Spitzenmodelle waren auch jenseits der 900€ angesiedelt.

Überteuerte Hardware hat absolut nichts mit der Marke zu tun, sondern eher damit, wie überlegen bzw. unterlegen die Produkte der Konkurrenz sind.
 
Du meinst den Athlon FX Chip?
Der kam 2003 auf den Markt und welcher Athlon X2 Chip hat denn 900€ gekostet?
Die Radeon X1xxx Serie kam 2005 auf dem Markt, ob nun 6 oder 5 Jahre alt, spielt keine Rolle.
 
Ich meine die Athlon 64 X2 4000/5000+ usw., deren Spitzenmodelle kosteten garantiert mindestens 900€, kann ja mal eine alte GameStar-Ausgabe rauskramen.;)

Und die Radeon X100-Reihe kam schon Ende 2004 raus und war auch jenseits der 500€ teuer.
 
Daran kann ich mich jetzt nicht erinnern, dass die so teuer sind, kannst ja mal nachgucken.
Meine Hardwarezeitungen überlegen 2 Wochen nie. :D

Nun ja, die GeForce 8800 Ultra hat auch schweine Geld gekostet.
Interessant wird es aber dann, wenn die Hersteller gleichwertige Modelle haben, kosten dann beide so viel?

Dass Intel schon immeer verdammt viel Geld für ihre Top Modelle genommen hat, ist ja auch kein Geheimnis.
 
Ja, Intel verlangte für die grottigen Pentium 4er mehr als 1000€, AMD bot die in absolut jeder Hinsicht besseren Athlon 64 X2-Spitzenmodelle aber auch für grad' mal 100€ weniger an.:ugly: Blöd für AMD nur, dass sie sich auf ihren Lorbeeren ausgeruht haben.:schief:

Bei Grafikkarten war das immer interessanter, die Radeon X1900 XTX war schneller aber auch teurer als die GeForce 7900 GTX, dafür aber langsamer als die GeForce 7950 GX2, welche dann aber auch wiederum teurer war. Die X1950 XTX konnte die zwar (damals wohl gemerkt, damals) auch nicht vom Tron stoßen, war aber nochmals billiger, sogar auf GeForce 7900 GTX-Nivau. Zwei davon kosteten 840€, zwei GeForce 7950 GX2 mehr als 1000€ welcher aber aufgrund fehlender Quad-SLI-Optimierung langsamer als zwei X1900 XTX waren.:ugly:
 
Aber heute reißt eine X1950 nichts, daher ist es egal, ob sie nun heute schneller ist als die Geforce von damals.
Es ist schlicht egal, denn jede Mittelklassekarte von heute hat deutlich mehr Leistung.
Es ist wie immer, das maximal mögliche zu kaufen ist ein Geldgrab, das war früher so, ist heute so und wird immer so sein.
 
"Dank" der Konsolen läuft auf einer X1950 aber immernoch jedes Spiel - mit nicht mal allzu wenigen Details.;)
Wer mit sowas leben kann und sich einmal eine High-End-Karte für 400€ kauft, welche in ein paar Jahren nur noch bei verminderter Qualität spielbare fps produziert anstatt sich jedes Jahr eine für 200 zu kaufen, hat sogar noch Geld gespart.
 
Und das wird laut Microsoft auch noch 5 Jahre so bleiben, denn angeblich befindet sich die Xbox auf den Zenti ihrer Existenz. Sie gibts seit 5 Jahre, also wird sie es noch weitere 5 Jahre geben.
Und so lange wird dein Rechner dann auch noch reichen, davon gehe ich mal aus.
 
Falls es jemanden Interessiert, der Athlon 64 X2 4600+ wird in der Alternate Werbung in der PCGH 12/05 mit 739€ gelistet, der 4400+ mit 579€, also denke ich dass der 4800+ über 800€ gekostet hat.

Die Sapphire X1800XL gabs bei alternate für 449€.

Damals konnten AMD und damals noch ATI noch soviel für ihr HW verlangen^^
 
Falls es jemanden Interessiert, der Athlon 64 X2 4600+ wird in der Alternate Werbung in der PCGH 12/05 mit 739€ gelistet, der 4400+ mit 579€, also denke ich dass der 4800+ über 800€ gekostet hat.

Die Sapphire X1800XL gabs bei alternate für 449€.

Damals konnten AMD und damals noch ATI noch soviel für ihr HW verlangen^^


Heute sind aber Doppelherzen das Maß aller Dinge, deshalb nehmen sie preislich den Platz der damaligen Single GPU High End Karten ein.
 
Dann hast du mehr erfahren als ich, ich hatte nur die Information, dass AMD Fusion (und davon kommt der Sockel) für Mobile Geräte, bzw. Nettops zur Verfügung stehen wird, also um preiswerte Desktopsystem zu realisieren und Touchscreenmodelle.
So gesehen nichts für den Desktopmarkt, wie wir ihn kennen.
 
Hier mal die übersicht:

der FM1 wird wohl kaum für Notebooks gedacht sein bei 100Watt TDP, zumal es eine andere übersicht gibt wo sogar dabeisteht Desktop - mal sehn ob ich die finde

248480d1279356964-sammelthread-amd-fusion-llano-amd_fusion_details_s.png
 
Also wird Fm1 der Sockel für die Mainstream-Plattform und AM3+ für High-End?
Verstehe ich das richtig?

Ist AM3+ mit AM2+ kompatibel?
Technisch schon oder?
 
Also wird Fm1 der Sockel für die Mainstream-Plattform und AM3+ für High-End?
Verstehe ich das richtig?

die aktuellen Gerüchte deuten wohl darauf hin

Ist AM3+ mit AM2+ kompatibel?
Technisch schon oder?

es ist eher unwahrscheinlich das AMD im BD noch einen DDR2 Controller verbaut - Es gibt auch Meinungen die sagen das der DDR2/3 Kombicontroller der Grund für die oft mageren RAM takte sind die aktuell mit AMD CPUs erreicht werden

mfg
 
Was alle mit dem Liano haben ... das wird doch sicher ne Buero, Office, Terminal sache werden die der 0815 PC nichtmal angucken wird ! :)
oder wieviele nutzen einen I3 oder I5 mit Interner GPU zum zocken als Allround Rechner ? ich denke Liano wird einfach nur das AMD Pendant dazu werden .
nebenbei , war Bulldozer nicht K12 ? dieses K15 im Titel verwirrt mich doch etwas , oder werden jetzt noch ein paar NR uebersprungen weil der Wurf soooo gross werden soll ? ;)
naja vielleicht sollja Liano K11 werden ... mal sehen

Also wird Fm1 der Sockel für die Mainstream-Plattform und AM3+ für High-End?
Verstehe ich das richtig?

Ist AM3+ mit AM2+ kompatibel?
Technisch schon oder?

naja AM2+ warja nur nen minimaler Upgrade zum AM2 , denke AM3 udn AM3+ wird das selbe , wobei wenn wir schon bei Geruechten sind !
ich auch schon gelesen habe das AM3 mit 8er chipsatz kmplett Bulldozer tauglich ist und nur der 7er Chipsatz teil kompatibel ist ...
der 8er brachte ja jetzt nicht die Killer features mit , also kann es durchaus sein das man damit nur denn Grundstein fuer 100% BUlldozer kompatibilitaet gelegt hat :)
Ansonsten ist 100% Sicher das der Bulli keinen DDR2 kram mehr mitbringen wird , da ist mit Thuban schluss , was DDR2 angeht :)

mfg F-4
 
Zuletzt bearbeitet:
Dass Intel schon immeer verdammt viel Geld für ihre Top Modelle genommen hat, ist ja auch kein Geheimnis.

AMD hat fuer ihre Top-Modelle damals zu Athlon Zeiten auch verdammt viel Geld verlangt. Beide Firmen, Intel und AMD, verlangen einen Haufen Knete wenn einer von ihnen die schnelste CPU hat. Ich wuerde dass jetzt mal Firmen-unabhaengig machen.;)
 
AMD hat fuer ihre Top-Modelle damals zu Athlon Zeiten auch verdammt viel Geld verlangt. Beide Firmen, Intel und AMD, verlangen einen Haufen Knete wenn einer von ihnen die schnelste CPU hat. Ich wuerde dass jetzt mal Firmen-unabhaengig machen.;)

wie ichs chon sagte der unterschgied ist meist der das AMD doch noch etwas weniger nimmt und auch nicht wie Intel mehr nimmt als AMD fuer CPUs die nicht besser oder kaum besser sind als die CPUs von AMD ... wie Intel das schon Praktiziert hat :)
Ist wohl der Boni denn man hat wenn man Marktfuehrer ist , der mehr fuer Werbung rauschmeissen kann als AMD fuer Forschung hat .
ansonsten wird aber auch kaum einer bestreiten das AMD auch Geld verdiehnen will/muss ...

mfg F-4
 
Zurück