Neues Projekt am Start, lohnt sich ein Opteron System zum Rendern?

Knogle

Volt-Modder(in)
Moin

Habe momentan wieder ne neue Idee, undzwar habe ich gesehen, dass die G34 Boards fuer die AMD Opterons unter 100 Euro erhaeltlich sind fuer 4 Sockel, und die 12 Kerner mit 2,4GHz kosten auch gerademal 20 Euro

Denkt ihr sowas wuerde sich zum Rendern lohnen? Naja nachdem ich einige Meinungen von euch gehoert habe wuerde ich das gerne umsetzen.
Nun paar Fragen:

Warum nutzt AMD inzwischen keine LGA Sockel mehr? Die haben doch viel mehr Vorteile als die PGA Sockel von AMD oder?
Warum sind noch kaum G34 Systeme im Einsatz? Sind die einfach nicht stark genug? Die Single Core Performance ist ja schon grottig.. aber bei 4 CPUs koennte das vielleicht lohnen

Schaffen die G34er auch DDR ECC ? oder nur RDIMMs. oder FBDIMMs?

MfG
 
Es kommt sehr darauf an, was du rendern möchtest. Also wenn es darum geht ganz viele Threads zu nutzen, dann kann es schon hilfreich sein.

Aber ich bezweifle das die Preise real sind. Ein AMD Opteron 6338P kostet ca. 400 Euro (12*2,3 Ghz)
 
Also wenn alle Kerne ausgelastet werden steht dem eigentlich nicht wirklich etwas im Wege, vor allem für Technikversierte Leute, denn auf Cb rennt jemand mit einem anständig übertaktetem 16 Kerner rum, und da hast du dann wirklich brachiale Leistung (Stromverbrauch natürlich auch ;) )
 
Also wenn alle Kerne ausgelastet werden steht dem eigentlich nicht wirklich etwas im Wege, vor allem für Technikversierte Leute, denn auf Cb rennt jemand mit einem anständig übertaktetem 16 Kerner rum, und da hast du dann wirklich brachiale Leistung (Stromverbrauch natürlich auch ;) )


Hab halt wieder Lust auf so nen Projekt :D Ist vielleicht brauchbarer als die FX Reihe^^
 
O.o
Also wenn du den wirklich kaufst, dann sagst du mir bitte wann der ankommt. Für das Geld nehm ich auch einen.

Und wenn das wirklich klappt, dann bekommst du wirklich brachialste Leistung für kaum Geld.
 
Also günstig ist der ja, aber halt auch noch ältere Generation - von 2010. Wobei bei dem Preis... und man wirklich viele Threads braucht...
 
Aber dafuer ist die power pro Kern zum kotzen^^
Das und die Leistungsaufnahme. AMD hat es im Servermarkt eigentlich noch schwerer als im Desktopbereich. Wirklich aktuelles haben die da nicht zu bieten (die Sockel C32 und G34 sowie die Chipsätze haben nun schon ein paar Jahre auf dem Buckel), du bekommst halt verglichen mit Intel viele Kerne zu einem günstigeren Preis. Bei Anwendungen, die eher mit der Anzahl Kerne als mit der Leistung eines einzelnen skalieren, mag das vielleicht noch ein Argument sein. Die vergleichsweise alte Architektur mit den damit verbundenen Nachteilen kann aber auch das überwiegen.

Ich habe ein Dual-Opteron-Gespann (2x4) aus der Vorgöngergeneration und das wird von nem luppigen i5 locker überholt - bei einem Drittel des Stromverbrauchs.
 
Das und die Leistungsaufnahme. AMD hat es im Servermarkt eigentlich noch schwerer als im Desktopbereich. Wirklich aktuelles haben die da nicht zu bieten (die Sockel C32 und G34 sowie die Chipsätze haben nun schon ein paar Jahre auf dem Buckel), du bekommst halt verglichen mit Intel viele Kerne zu einem günstigeren Preis. Bei Anwendungen, die eher mit der Anzahl Kerne als mit der Leistung eines einzelnen skalieren, mag das vielleicht noch ein Argument sein. Die vergleichsweise alte Architektur mit den damit verbundenen Nachteilen kann aber auch das überwiegen.

Bei einem Quad-CPU System ist der Stromverbrauch mMn völlig nebensächlich.
 
Bei einem Quad-CPU System ist der Stromverbrauch mMn völlig nebensächlich.
Nein, die Stromkosten sind mittlerweile auch in Rechenzentren ein Problem. Das, was man eventuell an Anschaffungskosten spart, holt man sich hinterher über die Stromrechnung wieder rein. Wenn die Kiste natürlich nur 30 Minuten pro Tag läuft, wird man das wohl nicht merken - andererseits lohnt es dann auch nicht, so ein System anzuschaffen.
 
Zuletzt bearbeitet:
Bei Anwendungen, die besser mit Kernen skalieren als mit Takt, geht das Ding bestimmt ordentlich ab.

So etwas gibt es nicht.
Man hat immer abnehmenden Grenznutzen bei Parallelisierung.

30% mehr Takt sind immer besser als 30% mehr Kerne.
Da führt kein Weg dran vorbei.

Abgesehen davon: Was willst du mit einer 45nm CPU aus 2009 / 10 heute noch anfangen?
 
So etwas gibt es nicht.
Man hat immer abnehmenden Grenznutzen bei Parallelisierung.

30% mehr Takt sind immer besser als 30% mehr Kerne.
Da führt kein Weg dran vorbei.

Abgesehen davon: Was willst du mit einer 45nm CPU aus 2009 / 10 heute noch anfangen?
Dasselbe wie mit den 1366er CPUs^^

Einfach mal schauen was das Ding in Benchmarks raushaut
 
Also auf HWbot habe ich diesen Opteron auf 3,6GHz gesehen

Der macht dann etwa 800 Punkte im CInebench, eigentlich recht lahm fuer 12 Kerne
 
Zuletzt bearbeitet:
Zurück