Battlefield 3 Beta: 11 Radeon- und Geforce-Grafikkarten im Benchmark-Test mit SLI und Crossfire

wohl eher gemessert, damit die blamage noch eine stufe höher ist.^^

naja , das mit dem 22" stimmt nicht so ganz. :-D die bildfläche ist 9% geringer, die auflösung aber ganze 15". deshalb bildet sich der treppeneffekt stärker aus, weil die pixeldichte nicht so groß ist. so denke ich jedenfalls.^^:D

Fast - kommt darauf an wie gut die Qualität des Monitors ist - ein FullHD 27'' wird die Treppchen wesentlich übler zeigen als ein FullHD 24''er - einfach weil der Pixelabstand hier kleiner ist.
Deswegen sind ja die ganzen FullHD 27er so "günstig" - fürn wirklich hübsches Bild müsste man da 2560er Auflösung fahren - und die haben dann wieder den entsprechenden Preis ;-)
 
wohl eher gemessert, damit die blamage noch eine stufe höher ist.^^

naja , das mit dem 22" stimmt nicht so ganz. :-D die bildfläche ist 9% geringer, die auflösung aber ganze 15". deshalb bildet sich der treppeneffekt stärker aus, weil die pixeldichte nicht so groß ist. so denke ich jedenfalls.^^:D

Nee, ist nicht so ... bei einen 22" sieht man wirklich keinen Unterschied zu FullHD... ich hatte einen 22" und das war gestochen scharf ... hatte ausversehn bei meinen 27" 1680-1050 am laufen, und hab da auch nur ein Bisl was bemerkt(Crysis) .
 
Ja verdoppelt die Pixelzahl mit 2560iger Auflösung gleich nochmal, da wird jedem SLI Gespann gleich viel wärmer unterm Kupferkern^^
 
PsychoQeeny schrieb:
Ja genau, vergiss nicht wie Flockig die Wolken aussehn ...genieße die Aussicht... in der Zeit hab ich dich dann schon 5 x Abgeschossen :D

Halte Ausschau nach 21_Mirrors. Ich hab dein dogtag dann schon als klapperrassel für die Kinder gebastelt ^^

Ich habe all das in dem 27min gameplayvideo angesehen.

Die Wolken sind übrigens wirklich sehr realistisch dargestellt und schön anzusehen.

Wenn man so viel Geld ausgibt, darf man sich ja wohl auch an dem Ergebnis ergötzen ;)
 
naja , das mit dem 22" stimmt nicht so ganz. :-D die bildfläche ist 9% geringer, die auflösung aber ganze 15". deshalb bildet sich der treppeneffekt stärker aus, weil die pixeldichte nicht so groß ist. so denke ich jedenfalls.^^:D

Anti Aliasing hat technisch nichts mit Pixeldichte zutun. Die Glättung wird besser, wenn absolut mehr Pixel zu sehen sind. Wenn die Pixledichte höher ist, wird vorhandenes Flimmern nur weniger vom Auge wahrgenommen, das Flimmern wird aber nicht weniger. Gegen Treppchen hilft nur genauere Abtastung - in Form von MSAA, SSAA oder eben höherer Auflösung. Ein 27" 1440p Monitor bietet das deutlich ruhigere Bild als ein 24" 1080p Screen, obwohl die Pixeldichte relativ gleich ist.

@Topic
Weis nicht obs schon gefragt wurde - welches System hat PCGH verwendet? Laut dem Youtube Video gibts ja auf Caspian Borders Ultra Settings, hat PCGH diese genutzt und wenn ja mit welcher Graka?
 
Dann nimm die Werte der HD5870 und ziehe 15-20% ab ;)
EDIT: Oder prügle deine 5850 auf ca. 945MHz GPU und 1200MHz Speicher - dann kannste die Werte der 5870 übernehmen :-D

Eine HD5850 erreicht schon ab ca. 900MHz die Leistung einer HD5870 (1440 Shader@725MHz zu 1600 Shader@850MHz). Das ist mit nahezu allen HD5850 der Rev.1 (Referenzdesign) möglich - bei Custom-PCBs der Hersteller ist das immer so eine Sache, aber 850MHz hat denke ich bis jetzt jede HD5850 geschafft. Der VRAM muss nicht unbedingt 1200MHz takten. Im Normalfall reichen auch schon 1100MHz, da die Bandbreite dann schon hoch genug ist für das meiste AA+AF-Spektakel (>120GB/s).

Ansonsten muss ich wirklich staunen wie gut sich die "alte" Riege der HD5800er Karten noch schlägt. Habe ich mit meinem Grakakauf mal nix verkehrt gemacht.
 
Zuletzt bearbeitet:
Bei AMD-Karten schaut es nicht besser aus. Eher sogar noch schlimmer.

Naja, diese ist in den letzten Wochen 10€ teurer geworden (billigster Anbieter), geht eigentlich. Das Angebot bezüglich Preis/Leistung an sich ist auch immernoch in Ordnung (zumindest die Durchschnittsleistung in allen Spielen), wobei man in BF3 mit einer GTX 560 Ti preislich besser fährt.
HIS Radeon HD 6950 IceQ X Turbo, 2GB GDDR5, 2x DVI, HDMI, 2x mini DisplayPort (H695QNT2G2M) | gh.de (geizhals.at) Deutschland
[URL="http://gh.de/610466"]Gigabyte GeForce GTX 560 Ti OC
[/URL]
Die Grafikkarten werden zwar nicht billiger, aber auch nicht sonderlich teurer, einzig die günstigsten 2 GiB Modelle der 560 Ti haben um ca. 30€ zugelegt.
 
Zuletzt bearbeitet:
Krass. Die GTX 570er im SLI rocken ganz schön wenn man im Vergleich die GTX 590 und die 580er im SLI heranzieht. Da bin ich mal Froh wieder NV zu haben. Meine zwei 570er machen auch Crysis 2 UltraTex DX11 +V-Sync mit.

Bin mal gespannt. Werds mir auch mal Laden.
 
@Pcgh Könntet ihr vlt bei den Finalen Test nen Paar Läppis mit reinnehmen ?
so alla 2630qm mit 4 gb und ner 560 gtx und ner 7200/U platte ,dann nen dualcore ~ 2430 m mit 4 gb und ner 555gt m. und dann halt nen high end system mit sli und am besten auch ner mobilen extrem cpu + ssd
 
Eine HD5850 erreicht schon ab ca. 900MHz die Leistung einer HD5870 (1440 Shader@725MHz zu 1600 Shader@850MHz).

1600*850/1440 = 944,4 ;-)

Wieso glaubt ihr alle dass es schon bei 900 reichen würde?
Vielleicht ists etwas weniger da 1440 Shader mit viel Takt leichter auszulasten sind als 1600 mit weniger Takt aber 900 oder gar 870 wie noch behauptet wird sind sicherlich zu wenig wenn man rechnerisch wie gezeigt auf 944,4 MHz kommt.
 
1600*850/1440 = 944,4 ;-)

Wieso glaubt ihr alle dass es schon bei 900 reichen würde?
Vielleicht ists etwas weniger da 1440 Shader mit viel Takt leichter auszulasten sind als 1600 mit weniger Takt aber 900 oder gar 870 wie noch behauptet wird sind sicherlich zu wenig wenn man rechnerisch wie gezeigt auf 944,4 MHz kommt.


Weil die Shader nicht 1:1 skalieren.

In der Theorie mag das zwar stimmen, aber die Realität sieht anders aus. Nutze alle Games, alle 3D Marks, du wirst sehen ab 870 Mhz ist die 5850 gleich schnell wie die 5870!
 
Weil die Shader nicht 1:1 skalieren.

In der Theorie mag das zwar stimmen, aber die Realität sieht anders aus. Nutze alle Games, alle 3D Marks, du wirst sehen ab 870 Mhz ist die 5850 gleich schnell wie die 5870!

Und was sind das für Zaubershader, die mit 20% mehr Takt 30% Mehr Leistung erzeugen?
Versteh mich nicht falsch aber wenn ich mir Benchmarks ansehe ist eine 5870 grob 20% schneller als eine 5850.
Wenn ich nun die 5850 um 20% übertakte (was 870 MHz sind) hab ich den gleichen Takt bei 160 Shadern weniger - wie soll das denn gleich schnell sein können?
Oder anders ausgedrückt - wie sollen billige 20MHz mehr den Shaderunterschied von 1440 zu 1600 wettmachen können wenn du deine 5850 nur auf 870MHz bringst?

Wenn das so wäre hätte AMD nie eine 5870 gebaut weil man einfach die 5850 hätte etwas übertakten können :ugly:
 

Naja, wenn man sich die Benchmarks anschaut und bedenkt, dass die 560 Ti natürlich eine Standardkarte ist, dann müsste eine 560 Ti mit min. 900 MHz ziemlich nahe an einer GTX 570 kratzen. Das sind meiner Meinung nach nicht über 80€ mehr wert.

Weil die Shader nicht 1:1 skalieren.
In der Theorie mag das zwar stimmen, aber die Realität sieht anders aus. Nutze alle Games, alle 3D Marks, du wirst sehen ab 870 Mhz ist die 5850 gleich schnell wie die 5870!
Und was sind das für Zaubershader, die mit 20% mehr Takt 30% Mehr Leistung erzeugen?
Versteh mich nicht falsch aber wenn ich mir Benchmarks ansehe ist eine 5870 grob 20% schneller als eine 5850.
Wenn ich nun die 5850 um 20% übertakte (was 870 MHz sind) hab ich den gleichen Takt bei 160 Shadern weniger - wie soll das denn gleich schnell sein können?
Oder anders ausgedrückt - wie sollen billige 20MHz mehr den Shaderunterschied von 1440 zu 1600 wettmachen können wenn du deine 5850 nur auf 870MHz bringst?
Wenn das so wäre hätte AMD nie eine 5870 gebaut weil man einfach die 5850 hätte etwas übertakten können :ugly:

ColeTrickle hat schon recht, ähnliche Erfahrungen habe ich auch gemacht, das kommt allerdings auch ein bisschen aufs Spiel an und bei GPU-Computing reicht man so noch nicht an eine 5870 heran. :)
Eine 5870 reizt beim Gaming wahrscheinlich die wenigsten Shader voll aus, deshalb bin ich mit meiner 6870 teilweise sogar schneller, außer in BF3. :(
Ich hab' was auf die Schnelle gefunden:
"Hidden Threat": ATI Radeon HD 5850 Graphics Card Review. Page 5 - X-bit labs
Vergleicht mal die 5850 @ 850/1200 Mhz mit einer 5870!
 
Zuletzt bearbeitet:
Zurück