Ja, zumindest was den Quad angeht ist diese Schätzung m.M.n. aus genannten Gründen realistisch. Btw: ne GTX 280 wird für max. Details sicher auch notwendig sein.
Da sollten wir wohl lieber das Releasedatum abwarten, anstatt zu schätzen. Wenn ARMA2 wirklich im Jänner erscheint, wird es gut genug optimiert werden müssen, um auch auf einer 512er HD4870 und GTX 260 anständig zu laufen, denn die GT300-Grakas sind dann noch genausowenig in Greifweite, wie die HD5k-Grakas.
Ich glaube, im Schnitt liegt sie 20 % hinter ner GTX 280, die ersten ausbiebigen Tests sind früher (was aber noch gar nicht solange her ist) zu diesem Ergebnis gekommen.
Du sagst es: früher ...
Aus aktueller Sicht nehmen sich eine GTX 280 und eine HD4870
(1 GB) nicht viel. Die GTX 280 liegt zwar etwas öfters vorne, aber ...
... die HD4870 liefert dafür meist mehr Minimum-FPS
... es gibt auch Games, wo die ATi die Nase vorne hat
... wurde die Leistung der HD4870 mit neueren Treibern stark verbessert
(ich verweise an dieser Stelle auf den PCGH-Test zum Catalyst 8.12 WHQL)
Die HD kann mit 8xAA ziemlich gut und hat gewisse Spiele die ihr liegen, so dass der Abstand bei einigen Spielen und in gewissen Einstellungen teils deutlich geringer ist.
8x AA ist eben die Königsdisziplin der Radeons ...
Aber ich will darüber gar nicht streiten, ein nicht unerheblicher Abstand zur GTX 280 ist im Schnitt auf jedenfall gegeben.
Streiten müssen wir nicht darüber, aber ich vertrete trotzdem die Meinung, dass der Unterschied in Games äußerst gering ist und das Rennen um die Single-GPU Krone keinen klaren Sieger hat. Klar bietet die GTX 280 nicht selten die meisten Maximum-FPS, aber es gibt gerade bei Games noch so viele andere Faktoren, die nicht unbeachtet lassen können und bei denen die Radeon punkten kann ...
Das seh ich ganz genauso wie du. Dennoch wird n Quadcore bei diesem Spiel gegenüber einem Dualcore grosse Vorteile haben. Und aktuell profitiert es aber extrem vom Quadcore, das ist ungeachtet der Gründe und etwaiger zukünftige Leistungssteigerungen via Patches ne Tatsache die man nicht unter den Teppich kehren sollte.
Wie dir in letzter Zeit vielleicht aufgefallen ist, planen relativ viele Leute extra für GTA IV einen Quad zu kaufen. Genau das halte ich für absoluten Schwachsinn, für ein einziges Spiel eine neue Komponente zu kaufen. Ich sage ja nichts mehr, wenn 10 aktuelle Top-Titel nicht mehr laufen, aber wegen einem einzigen aufzurüsten, ist in meinen Augen einfach Geldverschwendung ...
Im Übrigen werden in wenigen Wochen, wenn GTA IV die ersten Patches erhalten hat, vielleicht einige Leute blöd schauen, wenn dann die "Lastenverteilung" vielleicht wirklich so weit optimiert wurde, dass plötzlich ein potenter Dual-Core @ OC ausreichend wäre.
Keiner weiß, wie es mit GTA IV weitergeht, wann neue Treiber und Patches erscheinen werden und was diese bringen werden, aber ich kann jedem nur raten, seine "GTA-4-Aufrüstpläne" erstmal zu vergessen und ein Weilchen abzuwarten.
Ja, aber zwischen 20 und 30 FPS ist der Unterschied dann doch entscheidend, ebenso zwischen 30 und 40 FPS.
Natürlich sollte ARMA2
(um bei unserem Beispiel zu bleiben) als Shooter mit mind. 45 FPS laufen, um gut spielbar zu sein, aber ich kann mir nicht vorstellen, dass das mit aktueller HighEnd Hardware nicht möglich sein soll. Wie gesagt > abwarten.
Ich habs mehrmals unter Vista mit der Mster.cfg durchgespielt, ja. ARMA 2 hat seine Stärken (z.b. Fahrzeuge) und es ist klar dass eine riesige Map mit bspw. über 1.000.000 Bäumen und ner Sichtweite von bis zu 10 KM (wie ich bereits schrieb) nicht überall so viele spielunabhängige Details und gute Texturen wie Crysis haben kann, deswegen schrieb ich auch bewusst, dass die Grafik teilweise besser als Crysis ist.
Also gerade die Fahrzeuge würde ich nicht als grafische Stärke von ARMA2 bezeichnen. Eher das Figurendesign und die Vegetation haben Lob verdient, soweit man das anhand der Screens jetzt schon beurteilen kann. Im Übrigen solltest du nicht vergessen, dass Publisher gerne dazu neigen, Screens im Vorfeld nachzubearbeiten, um potenzielle Käufer zu beeindrucken. Nahezu kein Spiel sieht im fertigen Zustand so
(gut) aus, wie auf Vorabscreens ...
Tja, dann war die HD5870 wohl n schlechtes Beispiel. Wenn du Recht hast, dann ist der Leistungssprung der HD 4870 gegenüber der HD 3870 wohl nur ne Ausnahme gewesen, schade. Von Nvidia ist da, denke ich, deutlich mehr zu erwarten. ^^ Aber hast im Grunde schon Recht.
Naja, die Architektur des RV770
(bei der HD5870 dann RV870), die ja immer noch auf dem RV600 basiert, ist langsam aber sicher "ausgelutscht". AMD/ATI hat ja bereits angekündigt, dass die HD6870 wieder auf einer neuen Architektur basieren wird, die dann wieder für einen deutlichen Leistungsschub sorgen sollte ...
Von nVidia erwarte ich mir aber auch keine Rekordsprünge. Die GTX 285/295, die uns jetzt im Jänner erwartet, wird ja auch nur ein Aufguss der aktuellen Serie und die Leistung der GT300-basierten Grakas kann man noch absolut nicht einschätzen, da einfach zu wenig Infos vorhanden sind. Dennoch glaube ich auf jeden Fall, dass ATi mit der HD5k-Serie konkurenzfähig sein wird.
Hier noch ein paar Infos.
Wie gesagt, den Q9300 halte ich zum OC nicht für vorteilhaft, da gibts echt Quads die man vorziehen sollte, selbst wenn man bisschen mehr Geld ausgeben muss. Der Q6600 ist als Prei-Leistungs-Knaller auch noch eher zu empfehlen, grade weil er ein gutes OC-Potenzial hat. Ansonsten sei dir deine Meinung gelassen, hast ja auch nicht unrecht.
Naja, es gibt jede Menge Berichte von Q9300 mit erstaunlichen OC-Ergebnissen, aber es gibt eben auch Leute, die beim OCn nicht sonderlich weit gekommen zu sein scheinen. Ich denke mal, dass da einfach viel von den Restkomponenten und dem OC-Können abhängt. Bei einem Board, dass einen hohen FSB stabil schafft, sollte der relativ geringe Multi nicht gerade ein großes Problem darstellen. Beim Q6600 hat man eben den großen Nachteil, dass der aufgrund des 65 nm-Fertigungsprozesses schnell heiß wird und auch nur mit relativ hohen Spannungen, die im Altag nur mit WaKü zu bewältigen sind, wirklich gute OC-Ergebnisse schafft. Im Übrigen sollte ein Q9300 mit 3.5 GHz schneller sein, als ein Q6600 mit 3.4 GHz, was dem Durchschnittstakt von Letzterem entspricht.
Ich würde das OC-Potenzial von "Dr.House" Q6600 nicht verallgemeinern. Er scheint ein hervorragendes Modell erwischt zu haben, was mich auch für ihn freut, aber dem durchschnittlichen OC-Potenzial eines Q6600 entspricht das mit Sicherheit nicht ...
MfG, boss3D