Xeon E3-1230 v3: Ist der Workstation-Haswell mit Hyperthreading ein Geheimtipp?

Für mich als (primärer) Zocker taugt der Test nichts.
1280 Auflösung kann ich nichts mit anfangen; Vergleichswerte in 1920 wären toll.
(CPU Test jaja is klar aber leider sind die Spielebenches dank der Auflösung völlig praxisfern).
Ich frage mich auch warum in so einer geringen Auflösung getestet wird...
Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.

Und schon wieder zwei User, die den Sinn eines CPU Bechmarks nicht verstehen :(
 
Bin vor 3 Tagen von einem Phenom II x965 BE auf ihn umgestiegen und kann nur sagen Leistung pur
und bin absolut zufrieden und begeistert.
Einfach eine geniale CPU zu einem tollen Preis.
Ich für mich selbst bin froh keinen I5 oder I7 (K) gekauft zu haben,
da ich weder eine integrierte Grafikeinheit brauche und Übertakten,
was man eh nur braucht wenn man "Benchmarks spielt", bei der Leistung
der heutigen, zumindest Intel CPU´s absolut "sinnfrei" ist.
 
Ich frage mich auch warum in so einer geringen Auflösung getestet wird...
Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.

Bei den aktuellen Prozessoren kann man, aufgrund der langsamen Entwicklung, gern 1-2 mal die Grafikkarte nachrüsten.
Und dann? Dann hast du nichts mehr davon, das dein FX-8350 in Spiel X mit ner Titan genauso schnell war wie nen i7-4770k.
Einer von beiden wird schneller sein. Der Test in 720p, der das CPU Limit testet, lässt eine Aussage darüber zu welcher Prozessor mehr Leistung hat.
In 1080p rennt man einfach ins GPU Limit und der Test ist nicht mehr Aussagekräftig.
 
Ich frage mich auch warum in so einer geringen Auflösung getestet wird...

Weil es ein CPU Test ist. Und die Auflösung ist jetzt nicht primär relevant, du hättest das selbe Ergebnis auch in 2560x1600 wenn die GPU Leistung entsprechend hoch wäre. Und genau das soll gezeigt werden, wie schneiden die CPUs ab wenn die GPU Leistung so hoch ist dass die CPU limitiert. Und um das zu erreichen gibt es mehrere Möglichkeiten, die GPU Leistung massiv zu erhöhen (SLI, CF) wäre eine Variante - allerdings eine mit der man sich wieder andere Probleme einhandelt, Stichwort Skalierung, Overhead,... . Eine andere Variante ist eben die Auflösung zu senken um die Belastung der GPU zu senken und die CPU somit ins Limit zu treiben.

Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.

Ja, aber nicht wegen der CPUs sondern weil dann nurmehr die Systemleistung aus CPU und GPU, bzw. bei schnellen CPUs überhaupt nurmehr die GPU, verglichen wird. Das wäre für einen CPU Test sinnbefreit, was soll man daraus ablesen? Das im GPU Limit die CPU Limitierung erst bei kleinen Modellen einsetzt, dafür braucht es keinen groß angelegten Test, das kann man auch so sagen.
 
Das muss ich wohl übersehen haben. Wann wurde das eingeführt?
Erinner mich da immer nur an die TDP Angabe.
Danke!
Puuh - ich habe jetzt mal wahllos die 01/2013 aus dem Schuber gegriffen, da stand's schon drin.
In der 01/2014 sind die Einkaufsführer im Gegensatz zu Test und Leistungsindex übrigens noch auf dem alten Stand. Das war einerseits aus produktionstechnischen Gründen nötig, andererseits kann man so natürlich auch fein vergleichen.

Ich frage mich auch warum in so einer geringen Auflösung getestet wird...
Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.
Im Prinzip hast du mit deiner Full-HD-Aussage natürlich recht, doch in diesem Falle testen wir eben so gut es geht Prozessoren und nicht die sie umgebende und damit oft limitierende Infrastruktur. Aus demselben Grund machen wir bei Grafikkartentests VSync aus - und nutzen einen auf 4,6 GHz übertakteten i7-4770K.

Die Gaming-Leistung in Full-HD mit mehr verschiedenen Detailstufen ist immer mal wieder Thema eines Praxisspecials im Heft.
 
Ich frage mich auch warum in so einer geringen Auflösung getestet wird...
Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.

In Full Hd kann man die Unterschiede aber nicht so gut erkennen .
Außerdem könnte es sein ,dass bei Full Hd die GPU anfängt zu bremsen ,deshalb machen die das glaube ich immer auf der Auflösung.


Hat eigentlich jemand eine Idee ,wieso der 4770k in BF4 mehr Fps liefert als der auf 3,7 Ghz festgesetzte Xeon und bei Crysis genau umgekehrt?
Der 4770k müsste in Bf4/Crysis 3 doch eigentlich auch durchgehend mit 3,7Ghz laufen ,weil alle 4 Kerne beansprucht werden.
Wieso liefert er dann bei gleichem Takt mehr Fps bei BF4 und weniger bei Crysis3 ?
 
Zuletzt bearbeitet:
Schöner und nützlicher Test!
Danke dafür!

btw:

Eure uGrid/exCellBuffer Berechnung bei Skyrim ist falsch.
uExterior Cell Buffer = (uGridstoLoad + 1)^2
Müssten also bei euren 9 uGrids 100 sein...

Habe ich zumindest immer so gemacht
 
Für mich als (primärer) Zocker taugt der Test nichts.
1280 Auflösung kann ich nichts mit anfangen; Vergleichswerte in 1920 wären toll.
(CPU Test jaja is klar aber leider sind die Spielebenches dank der Auflösung völlig praxisfern).

Ich frage mich auch warum in so einer geringen Auflösung getestet wird...
Ist irreführend irgendwo, da @ Full HD alles ganz anders aussieht und das Feld sehr nah zusammen rückt.

Und nochmal 2 Nutzer, denen man erklären muß, das in FUllHD aka 1920 die Grafikkarte eher limitiert als die CPU, das heißt, die fps sinken, weil die GPU voll asgelastet ist, nicht die CPU.
Um das zu vermeiden, senkt man die Auflösung, die GPU dreht Däumchen während man gucken kann, was die CPU alles zu leisten vermag.

Oder kurz:
CPU-Test -> niedrige Auflösung, damit GPU nicht ausbremst
GPU-Test -> hohe Auflösung
 
Ich habe mir den Xeon auch bestellt und dieser Test bestätigt auch meine Kaufarguemente, danke.

Will aber meine Meinung zu verschiedenen Aspekten für den Xeon, Haswell äussern.

Je komplexer die CPU werden, desto schwieriger wird es, sie stabil mit geringer Spannnung zu übertakten und mal ehrlich, wenn schon mit extrem niedrigen Auflösungen getestet werden muss um überhaupt ins CPU Limit zu kommen, bringt OC dann im Alltag noch etwas?
Wenn jetzt noch 4K immer Aktueller wird und ich habe gehört, dass Dell einen 4K 24 Zoll Monitor bringen will, mit einer PPI von 185, dann freue ich mich schon auf neue GPU's (zum anderen hier kann man sich jegliches AA sparen, mit dieser PPI) und ein CPU Limit eines Xeon 1230V3 wird noch lange nicht erreicht.

Mutli Thread wird aber immer wichtiger warum ich persönlich lieber einen Xeon habe als einen etwas höher getakteten i5 zum gleichen Preis. Ich betreibe z.b. Folding@Home, wo HT schon seine vorteile ausspielen kann. Auch bei Virtuellen Systemen, kann man die logischen Kerne besser zuteilen.

Zu den Temperaturen der Haswell CPUs möchte ich aber noch zu bedenken geben, dass bei den Haswell CPUs Spannungswandler intergriert sind. Seht euch mal ein Z77 Board an, wie viel Spannungswandler hier verbaut wurden und wie die Gekühlt wurden und dann was davon noch auf einem Z87 Board übrig ist (bei gleicher Klasse)! Dies muss jetzt die CPU übernehmen! Für mich ist es nur logisch, dass die CPUs heisser werden, deswegen hitzen andere Bauteile im Gehäuse überhaupt nicht mehr!
Ob dies nun vorteilhalt ist oder ein Hinterniss darstellt? Keine Ahnung, ich vertrete jedoch die Meinung, je mehr im Chip integriert ist und je mehr so aufeinander abgestimmt ist, desto besser, jedenfalls, könnnen Marketingpfuscher weniger Einfluss auf die Systemstabilität nehmen...
 
Und schon wieder zwei User, die den Sinn eines CPU Bechmarks nicht verstehen :(

und wieder ein User der gerne für nichts-und-wieder-nichts Geld ausgibt.

Und nochmal 2 Nutzer, denen man erklären muß, das in FUllHD aka 1920 die Grafikkarte eher limitiert als die CPU, das heißt, die fps sinken, weil die GPU voll asgelastet ist, nicht die CPU.
Um das zu vermeiden, senkt man die Auflösung, die GPU dreht Däumchen während man gucken kann, was die CPU alles zu leisten vermag.

Oder kurz:
CPU-Test -> niedrige Auflösung, damit GPU nicht ausbremst
GPU-Test -> hohe Auflösung

aha
Also reicht ein Athlon XP heute für 1920 noch aus? Oder sollte es schon ein Athlon II sein?
Ab wann lohnt sich als Zocker ne neue CPU?
Woran liegt es das ich so wenig FPS habe?
An den Titans oder an der Intel E8400 CPU? Fragen über Fragen...( ja mit extra viel Übertreibungen)

Es wurde auch nach Vergleichswerten in 1920 gefragt um eben ggf. zu sehen das in Spielen es völlig egal ist...
 
Zuletzt bearbeitet:
Schöner Test :daumen:

Wenn auch etwas spät. Einen vergleichbaren Test gab es auf CB schon am 19.10.13

Ich möchte noch anmerken, dass man den Xeon doch etwas "übertakten" kann:

CB schrieb:
Mit besagtem Base Clock knapp über 105 MHz und dem maximalen Multiplikator von 37 ließen sich mit dem Xeon E3-1230 v3 problemlos 3,9 GHz erreichen, ohne auch nur ansatzweise etwas an der Spannung drehen zu müssen. Je nach Mainboard kann der Takt über die Turbo-Stufen manuell festgelegt werden, sodass dieser auch so konfiguriert werden kann, dass in allen Lebenslagen 3,9 GHz anliegen sollen. Aber selbst ohne diese Justierung schwankt der Takt mit erhöhtem BCLK nur zwischen 3,7 und 3,9 GHz, womit man ohne Probleme alle Aufgaben bewältigen kann.
Intel Xeon E3-1230 v3 im Test (Seite 7) - ComputerBase

3,9 GHz sollten selbst für Gamer ausreichen.
Und man sollte dabei nicht vergessen, dass Haswell sich nicht besonders gut übertakten lässt.
Das bestätigte noch einmal overclocker.co.uk mit deren Polaris und Supernova PCs, in denen nur handselektierte Ivy Bridge rein kommen.
[Jetzt mit deutschem Video] 8-Pack-Komplettsysteme in Deutschland verfügbar: Einzigartige PCs ab 7.777,77 Euro

p.s.
Wie wirkt sich eigentlich die ECC-Fehlerkorrektur für den Arbeitsspeicher aus dem Profi-Segment aus?
Hat das irgendwelche Vorteile für den normalen PC-User?
Wenn ja, bekommt man dass nur bei einem Xeon.
 
Zuletzt bearbeitet:
Schöner Test :daumen:

Wenn auch etwas spät. Einen vergleichbaren Test gab es auf CB schon am 19.10.13

Ich möchte noch anmerken, dass man den Xeon doch etwas "übertakten" kann:


Intel Xeon E3-1230 v3 im Test (Seite 7) - ComputerBase

3,9 GHz sollten selbst für Gamer ausreichen.
Und man sollte dabei nicht vergessen, dass Haswell sich nicht besonders gut übertakten lässt.
Das bestätigte noch einmal overclocker.co.uk mit deren Polaris und Supernova PCs, in denen nur handselektierte Ivy Bridge rein kommen.
[Jetzt mit deutschem Video] 8-Pack-Komplettsysteme in Deutschland verfügbar: Einzigartige PCs ab 7.777,77 Euro

Das hatten wir ja schon im Thread als gefragt wurde, ob der Xeon hier getestet werden soll. :D
 
Also reicht ein Athlon XP heute für 1920 noch aus? Oder sollte es schon ein Athlon II sein?
Das kommt darauf an, was Du spielst.

Ab wann lohnt sich als Zocker ne neue CPU?
Wenn Du ein neues Spiel gekauft hast, es läuft nicht flüssig, Du stellst die Auflösung (und vielleicht nocht Physik-Effekte wie Trümmerteile (Decals)) runter, und es läuft immer noch nicht flüssig...dann wird es wahrscheinlich Zeit für eine neue CPU.

Woran liegt es das ich so wenig FPS habe?
Teste es:
1. Stelle die Grafikqualität/Effekte herunter/aus _ohne_ die Auflösung zu ändern. Hast Du mehr FPS dürfte die GPU am Limit sein. Hast Du immer noch wenig FPS, kommt die CPU nicht mehr hinterher.
Gegenprobe:
2. Stelle die Auflösung runter (behalte aber Qualität und Effekt auf max). Bekommst Du nun mehr FPS limitiert die CPU. Bleiben es aber immer noch wenig FPS, ist die GPU zu schwach.

An den Titans oder an der Intel E8400 CPU? Fragen über Fragen...( ja mit extra viel Übertreibungen)
Die man sich so schnell und leicht selbst beantworten kann...

Es wurde auch nach Vergleichswerten in 1920 gefragt um eben ggf. zu sehen das in Spielen es völlig egal ist...
Wenn man einen CPU-Test macht, braucht man keine Vergleichswerte in FHD/1920, weil das, was man als Indikator nutzt (die fps) von anderen Faktoren (zB GPU) viel stärker beeinflusst werden kann.
 
Wie wenig sich die übertakteten CPUs (1230/4670) gegenüber ihren Standardtaktraten in BF4 und Skyrim absetzen können finde ich schon überaschend. Dagegen bauen sie in Crysis 3 und Anno 2070 ihren Vorsprung weiter aus. :gruebel:Wenn man bedenkt, dass die Abstände in Full-HD noch ewas kleiner werden, hat für einen Spielrechner die Zusammenstellung aus i5-4430/4440 inklusive 60€ B85 Board für 210€ einen Preis-Leistungs-Award verdient. Da investiert man bei einem begrenzten Budget lieber etwas mehr Geld in eine schnellere Grafikkarte und fährt damit auf mehrere Jahre gesehen wahrscheinlich besser. Ich würde jetzt auch nicht mehr zum Xeon sondern eher zum 4430/4440 greifen. Zumal immer noch nicht klar ist, ob meine 8 Threads von den 8 Jaguarkernen profitieren.
 
Zuletzt bearbeitet:
Es wurde auch nach Vergleichswerten in 1920 gefragt um eben ggf. zu sehen das in Spielen es völlig egal ist...
Dem stimme ich grundsätzlich zu. Die Alltagsauflösung von 1080p spiegelt der 720p Benchlauf nicht wieder. Zeigt aber deutlich auf, ab welcher Grafikleistung man mit einem CPU-Limit in etwa rechnen muss.
Hier wäre ein CPU-Test mit SLI/CFX-Gespannen doch recht interessant, um zusehen wie stark die GPUs unter einem CPU-Limit, bei den hier getesteten Games mit 1080p Auflösung leiden.

Zum Test:
Klasse Arbeit vom Carsten, und ein schöner Test.
Find es gut, dass die Anwendungen jetzt etwas mehr beim CPU-Test mit einbezogen werden. Dies vermittelt ein besseren Gesamteindruck über die Leistung einer CPU.
Da lohnt sich ja mal wieder die Zeitschrift zu kaufen. :D
 
Zuletzt bearbeitet:
Schöner Test :daumen:

Wenn auch etwas spät. Einen vergleichbaren Test gab es auf CB schon am 19.10.13

Ich möchte noch anmerken, dass man den Xeon doch etwas "übertakten" kann:
Dasselbe merkte ich ebenfalls an: „… die mageren ~5 MHz BCLK-Tuningpotenzial fallen da kaum noch ins Gewicht und bergen Absturzrisiken.“

CB hat einen Vorteil: Sie müssen nicht zwischendrin noch dieses Heft-Dingens machen. :)
 
^^ np

Das wäre interessant zu wissen.
Ob dieser Xeon mit 3,9 GHz wirklich instabil läuft.
Aber vielleicht posten einige User hier ihre Erfahrungen damit?

Hat man mit der ECC-Fehlerkorrektur irgendeinen Nutzen in normalen Desktop-PCs?
 
Zurück