PCGH.de: Kommen die Geforce GTX 260/280 in 55 nm ohne neue Namen?

"Zitat von Tarvos: Das Nvidia Bildqualiätsmäßig besser dasteht ist Fakt und kann nicht geleugnet werden.
Wird es denoch geleugnet, so gilt dies als Lüge."

Mehr brauch ich wohl nicht zu sagen, oder? :rolleyes:
Ja richtig, wer das leugnet ist ein Lügner.
Aber wo habe ich jemanden fälschlicherweise beschuldigt?

Weniger FPS? Ja. Deutlich weniger? Nein.
Je nachdem, bis zur FPS-Viertelung (in Annahme eines perfekt skalierenden Quad CF, was nie der Fall ist)

Wahrscheinlich in der fünften Klasse. So, da hast du deine Halbierung.
Na was ist den das? PCGH - Test/Benchmark: HD2900 XT: 1024-MiB-Version im PCGH-Test -
Ich schrieb doch schon, wenn du schlecht informiert bist dann such mal nach der Karte.

Vielleicht weißt du es nur nicht, aber ein kleineres Speicherinterface ist nicht unbedingt schlechter. Siehe HD4870 und GTX 260.
Das liegt daran das es R600 nicht an der Bandbreite verrottet.
Dein Beispiel ist schrott, die 4870 hat 3% mehr Bandbreite.

Ist es eine Leistungssteigerung oder ist es keine? Tja ... Ist schon so eine Sache, die Mathematik.
AnandTech: ATI Radeon HD 3870 & 3850: A Return to Competition
Bei -7 bis +10% sehe ich es nicht ein über Mehrleistung zu diskutieren.

Wer bitte behauptet, dass ein niedrigerer Preis eine neue Generation zur Folge haben muss? Ein Shrink samt strukturtechnischer, merkbarer Verbesserungen? Ja.
Du:
"Ob es dich juckt ist mir Wurscht. Aber der Kunde freut sich nunmal über niedrigere Preise. Das sollte wirklich nicht allzu schwer zu begreifen sein ..."

Du hast nicht richtig gelesen. Es ist meiner Ansicht nach besser, wenn man zwei verschiedene Produkte trennt, sei es mit dem Anhängsel GTX 265, als wenn man sie als ein und dasselbe verkauft. Die 55nm-Version hat es nämlich an sich, bei gleicher Taktung, etc. weniger Strom zu verbrauchen, kühler und damit leiser zu bleiben.
Mit der "5" dran entseht der Verdacht der Mehrleistung, was nicht der Fall ist.

Ach und du hattest eine HD2900 XT und eine HD3870, damit du diese "Bugs" glaubhaft als Argument benutzen kannst?
Die Architektur ist bekannt, deren Schwächen ebenfalls.
Gefixt wurden diese Bugs erst mit RV770.

Lass' dir was anderes einfallen, dieses hier wird langsam langweilig.
Man sollte schon über ein paar Grundlagen bescheid wissen, zb wie viel VRAM Karte XY hat.

Nein. Du hast irgendwas von Grafikkartennamen erzählt und ich habe nachgefragt, was du unter diesen verstehst.
Ja ich schrieb Grafikkartennamen sind nicht an GPU Namen gekoppelt.
Man könnte auch einen teildeaktivierten G92b auf eine 9500 GT setzen.

Wozu wohl? Damit man dir glaubt.
Bezweifel ich, du holst eh dein Ugly wieder raus.
Beweiße hast du genug bekommen, auch eine kleine Hilfe wo du selbständig suchen kannst.

Und wann soll ich geschrieben haben, dass bei AMD alles toll wäre?

Nunja. Mit 55nm kommt ATI/AMD ja sehr gut zurecht, das wirst selbst du nicht leugnen können.
Wie gut sie damit zurecht kommen ist unbekannt.
Fakt ist, das du nicht weißt, wie viel AMD 55nm im Vergleich zu 65nm wirklich bringen.

Kannst du dich nur nicht auf das Wesentliche konzentrieren? Du hattest schonmal eine NV-Karte bei dir im Rechner, korrekt? Wenn dem so wäre, warum sagst du das nicht gleich und erzählst um den heißen Brei herum?
Ich hatte mal eine Karte mit eine von nVidia designten GPU.

Nein. Weil mir das damals noch schnuppe war. Momentan zieht aber Nvidia die Dreckskampagne durch und das wurmt mich, kapisch? Außerdem sind die Zeiten der von dir erwähnten GraKas vorbei und was vorbei ist, das ist nicht mehr wesentlich.
Na dann, damals war Codenamen Chaos, mit unterschiedlichsten GPUs ok. Egal ob teildeaktivierte Chips oder vollständige Chips, egal ob geshrinkt oder ungeshrinkt.
Heute ists es obwohl einfacher ist nicht ok, alles klar.

PS: Die GTX 260 ist EOL.

Ja, wenn du dir eine HD4xxx kaufst.
Auch wenn ich mir eine GTX 2xx kaufe.
 
Ja richtig, wer das leugnet ist ein Lügner.
Aber wo habe ich jemanden fälschlicherweise beschuldigt?

Damit beleidigst du potentiell jeden.

Na was ist den das? PCGH - Test/Benchmark: HD2900 XT: 1024-MiB-Version im PCGH-Test -
Ich schrieb doch schon, wenn du schlecht informiert bist dann such mal nach der Karte.

Aha. Also ist PCGH für dich das Nonplusultra und Computerbase schlecht informiert? :ugly: Außerdem sagte ich doch schonmal, dass weder die HD2900 XT nur mit 512MB VRAM noch die HD3870 nur mit 512MB VRAM zu haben sind, sondern auch mit mehr oder gegebenenfalls weniger. Das sollte irgendwie klar sein.

Das liegt daran das es R600 nicht an der Bandbreite verrottet.
Dein Beispiel ist schrott, die 4870 hat 3% mehr Bandbreite.

3% mehr Bandbreite als die GTX 260? Die GTX hat ein 448-Bit großes Speicherinterface und die HD4870 256-Bit, genauso wie die HD3870.


AnandTech: ATI Radeon HD 3870 & 3850: A Return to Competition
Bei -7 bis +10% sehe ich es nicht ein über Mehrleistung zu diskutieren.

Zitat von AnandTech:
"On average, the Radeon HD 3870 gives us a 6 - 10% increase in performance over the more expensive, less featured, louder Radeon HD 2900 XT. Not bad for improvement over the course of 6 months."

Keine Ahnung wo du die - 7 bis + 10% her hast. Englisch ist neben Mathe auch so eine Sache. "The more expensive (die teurere), less featured (geringer befähigte), louder Radeon HD2900 XT (lautere Radeon HD2900 XT).

Du:
"Ob es dich juckt ist mir Wurscht. Aber der Kunde freut sich nunmal über niedrigere Preise. Das sollte wirklich nicht allzu schwer zu begreifen sein ..."

Da stand aber jemand auf der Leitung. :lol:
Das war eine allgemeine Feststellung. Oder freust du dich als Kunde nicht, wenn die GTX 260 jetzt nicht mehr 230€, sondern nur noch 200€ kosten würde? Um jetzt wieder irgendwelchen Missverständnissen vorzubeugen: Ja natürlich sinken die Preise mit der Zeit, aber das ist die aktuelle Generation und würde durch den SHrink günstiger werden. Nun verstanden?

Mit der "5" dran entseht der Verdacht der Mehrleistung, was nicht der Fall ist.

Du willst es einfach nicht verstehen, oder? Das war ein Beispiel, wie man die 55nm GTX 260 kennzeichnen könnte. Und die "5" lässt definitiv keinen Verdacht auf Mehrleistung entstehen, sondern den Verdacht auf technisch fortschrittlicher, was ja wohl der Fall wäre.

Die Architektur ist bekannt, deren Schwächen ebenfalls.
Gefixt wurden diese Bugs erst mit RV770.

Sprich du hattest keine.

Man sollte schon über ein paar Grundlagen bescheid wissen, zb wie viel VRAM Karte XY hat.

Gerade das ist doch mal wirklich nebensächlich. Es gibt selbst eine HD3850, die 1024MB VRAM hat. Du setzt da die Prioritäten falsch.

Ja ich schrieb Grafikkartennamen sind nicht an GPU Namen gekoppelt.
Man könnte auch einen teildeaktivierten G92b auf eine 9500 GT setzen.

Du meinst die Chip-Namen? Selbst wenn, warum versuchst du mir etwas beizubringen, was ich schon längst weiß?

Bezweifel ich, du holst eh dein Ugly wieder raus.
Beweiße hast du genug bekommen, auch eine kleine Hilfe wo du selbständig suchen kannst.

Und ich habe gesucht und deine Ansicht als falsch bestätigt bekommen. :ugly: (nur für dich)

Wie gut sie damit zurecht kommen ist unbekannt.
Fakt ist, das du nicht weißt, wie viel AMD 55nm im Vergleich zu 65nm wirklich bringen.

Nach dir hätten wir wohl auch noch 110nm-Karten, was? Du bist da aber sehr konservativ ...

Na dann, damals war Codenamen Chaos, mit unterschiedlichsten GPUs ok. Egal ob teildeaktivierte Chips oder vollständige Chips, egal ob geshrinkt oder ungeshrinkt.
Heute ists es obwohl einfacher ist nicht ok, alles klar.

So ist es. Hat ja lange gedauert, bist du das verstanden hast.

Auch wenn ich mir eine GTX 2xx kaufe.

Ach ja? :schief:
 
Damit beleidigst du potentiell jeden.
Wer Fakten nicht anerkennt, sondern leugnet ist ein Lügner, was sonst?


Aha. Also ist PCGH für dich das Nonplusultra und Computerbase schlecht informiert? Außerdem sagte ich doch schonmal, dass weder die HD2900 XT nur mit 512MB VRAM noch die HD3870 nur mit 512MB VRAM zu haben sind, sondern auch mit mehr oder gegebenenfalls weniger. Das sollte irgendwie klar sein.
Wo schrieb ich das PCGH die göttliche Erleuchtung ist?
Für dich ein Link von CB:
ComputerBase - HD 2900 XT mit 1024 MB in zwei Tagen

Oder noch ein Sack voll anderer Links: 2900 xt 1024 gddr4 - Google-Suche


Da frage ich mich, was soll das? Du hast eindeutig unrecht und ich solls 100mal beweißen?


3% mehr Bandbreite als die GTX 260? Die GTX hat ein 448-Bit großes Speicherinterface und die HD4870 256-Bit, genauso wie die HD3870.
Du weißt aber schon wie man Bandbreite berechnet?

Wenn ja, dann versuchs jetzt mal mit der Prozentrechnung:
115,2 GB/s (4870) vs 111,888 GB/s (GTX 260)

Na?


Keine Ahnung wo du die - 7 bis + 10% her hast.
http://www.abload.de/img/omg5q6l.jpg


Da stand aber jemand auf der Leitung.
Das war eine allgemeine Feststellung. Oder freust du dich als Kunde nicht, wenn die GTX 260 jetzt nicht mehr 230€, sondern nur noch 200€ kosten würde? Um jetzt wieder irgendwelchen Missverständnissen vorzubeugen: Ja natürlich sinken die Preise mit der Zeit, aber das ist die aktuelle Generation und würde durch den SHrink günstiger werden. Nun verstanden?
Natürlich freue ich mich, sofern ich gerade kaufen will.
Aber neue Preise erkenne ich leicht an den Preisen, da brauche ich keine neuen Namen.
Könnt ja im Zukunft so heißen: 199$, also nennen wir das Ding GTX 199. Nach der Preissenkung wird die GTX 178.
Du willst es einfach nicht verstehen, oder? Das war ein Beispiel, wie man die 55nm GTX 260 kennzeichnen könnte. Und die "5" lässt definitiv keinen Verdacht auf Mehrleistung entstehen, sondern den Verdacht auf technisch fortschrittlicher, was ja wohl der Fall wäre.
Nein?
Hm, dann heißt die GTX 280 zum Spass GTX 280 und nicht GTX 260?


Sprich du hattest keine.
Was willst du?
über die Architeturen diskutieren? Meine Aussage "Die Bugs wurden erst in RV770 gefixt, bis auf die Treiberbugs AI oder ..." hat nochmal was mit dem Besitz einer 3870 X2 zu tun?
Gerade das ist doch mal wirklich nebensächlich. Es gibt selbst eine HD3850, die 1024MB VRAM hat. Du setzt da die Prioritäten falsch.
Ja als Sondermodell.
Die 2900 XT 1024 GDDR4 war kein Sondermodell, sondern ein Modell.


Du meinst die Chip-Namen? Selbst wenn, warum versuchst du mir etwas beizubringen, was ich schon längst weiß?
Weil deine Aussagen anderes vermuten lassen.


Und ich habe gesucht und deine Ansicht als falsch bestätigt bekommen. (nur für dich)
Wo gesucht?
Nochmal kurz für dich: (ab HD2 fährt man deine Taktik, neuer Codename, neue Generation)
X1600 Pro; X1300 XT; X1650: RV530/RV535
X1600 XT; X1650 Pro: RV530/RV535
X800 SE: R420/R423
X800 GT: R420/R423/R430/R480/R481
X800: R420/R430
X800 Pro: R420/R430
X800 GTO: R423/R430/R480/R481
X800 XT: R420/R423/R480/R481
X800 XT PE: R420/R423/R481
X850 Pro: R430/R480/R481
X850 XT: R480/R481
X850 XT PE:R480/R481
9800 SE: R350/R360
9800 Pro: R350/R360


Reicht das erstmal? (nur wegen dir nur AMD/ATi erwähnt)


Nach dir hätten wir wohl auch noch 110nm-Karten, was? Du bist da aber sehr konservativ ...
Falsch.
Ich schrieb nur, das du nicht weißt, was 55nm bringen.
Faktisch bringen sie erstmal eine kleine Kostenersparnis. Ja klein, so viel sparen kann der Halfnode gar nicht.

Ich bin nicht 55nm oder für 40nm, selbstverständlich nicht.


So ist es. Hat ja lange gedauert, bist du das verstanden hast.
Mir ist nur unverständlich, wie ein Gutmensch soetwas zugeben kann.
Heute ist ******** ********, gestern wars ******** Gold.
Vollkommen logisch.


Du hast dies Richtig gelesen.
 
Wer Fakten nicht anerkennt, sondern leugnet ist ein Lügner, was sonst?

Fakten, dass die Nvidia die eindeutig und unbestreitbar bessere Bildqualität haben, gibt es nicht. Damit beziechnest du potentiell jeden als Lügner.

Wo schrieb ich das PCGH die göttliche Erleuchtung ist?
Für dich ein Link von CB:
ComputerBase - HD 2900 XT mit 1024 MB in zwei Tagen

Dein Link beweist lediglich, dass es vor der 1GB-Version eine 512MB-Version gab. :schief:

Oder noch ein Sack voll anderer Links: 2900 xt 1024 gddr4 - Google-Suche

Was zeigt uns das? Das die 1024BM-Version GDDR4 Speicher benutzt und die 512MB-Variante GDDR3, also bestreite nicht weiter, dass die HD2900 XT nicht auch mit GDDR3-Speicher ausgeliefert wurde/wird.

Da frage ich mich, was soll das? Du hast eindeutig unrecht und ich solls 100mal beweißen?

Würdest du dir das, was du zitierst, mal richtig durchlesen, dann hättest du so was nicht geschrieben.

Zitat von Computerbase:
"Darüber hinaus bestätigt die PR-Meldung die durch erste Angebote im Handel entfachte Vermutung, dass als Speicher GDDR4 und nicht – wie bei der 512-MB-Karte – GDDR3 zum Einsatz kommt."

Du weißt aber schon wie man Bandbreite berechnet?

Wenn ja, dann versuchs jetzt mal mit der Prozentrechnung:
115,2 GB/s (4870) vs 111,888 GB/s (GTX 260)

:lol: Wir sprechen zwar die ganze Zeit vom Speicherinterface, aber egal. Du hast damit lediglich bewiesen, dass ich recht habe. Und zwar, dass es sinnvoll war, das Speicherinterface kleiner zu halten und dafür auf schnelleren Speicher zu setzen.


1. Ist das nicht die Seite von der du das zu wissen meinst (was diese Seite gewesen wäre)

und

2. hast du schon wieder falsch geguckt. Die HD3870 ist bei sieben von 39 Messdaten bei zehn Spielen um maximal 6.7 Prozent langsamer. Im Durchschnitt sogar nur um ca. 3.7 Prozent.
Das Beste: Die HD3870 ist der HD2900 XT teils sogar um 36% vorraus und im Durchschnitt ca. 9.6%.

Demnächst einfach mal genauer hinschauen. ;)

Könnt ja im Zukunft so heißen: 199$, also nennen wir das Ding GTX 199. Nach der Preissenkung wird die GTX 178.
Nein?
Hm, dann heißt die GTX 280 zum Spass GTX 280 und nicht GTX 260?

Was erzählst du da?

Die 2900 XT 1024 GDDR4 war kein Sondermodell, sondern ein Modell.

Sagst du. Die HD2900 XT 512MB GDDR3 war genauso ein Modell wie die HD2900 Xt 1024MB GDDR4.

Weil deine Aussagen anderes vermuten lassen.

Ach und was? Ich habe dir nun gesagt, dass ich nicht weiß, weshalb du mir etwas erklären willst was ich schon weiß.

Wo gesucht?
Nochmal kurz für dich: (ab HD2 fährt man deine Taktik, neuer Codename, neue Generation)
X1600 Pro; X1300 XT; X1650: RV530/RV535
X1600 XT; X1650 Pro: RV530/RV535
X800 SE: R420/R423
X800 GT: R420/R423/R430/R480/R481
X800: R420/R430
X800 Pro: R420/R430
X800 GTO: R423/R430/R480/R481
X800 XT: R420/R423/R480/R481
X800 XT PE: R420/R423/R481
X850 Pro: R430/R480/R481
X850 XT: R480/R481
X850 XT PE:R480/R481
9800 SE: R350/R360
9800 Pro: R350/R360


Reicht das erstmal? (nur wegen dir nur AMD/ATi erwähnt)

Warum denkst du, dass mich das interessiert? Ich habe doch schonmal erwähnt, dass das vorbei ist. Nicht mehr wesentlich und so. Du erinnerst dich? Du hättest außerdem ruhig Nvidia erwähnen können, ich weiß nicht, weshalb du "nur wegen mir" nur AMD/ATI auflistest.

Falsch.
Ich schrieb nur, das du nicht weißt, was 55nm bringen.
Faktisch bringen sie erstmal eine kleine Kostenersparnis. Ja klein, so viel sparen kann der Halfnode gar nicht.

Ne? Bringt nichts? Dann hättest du also demnächst gerne 2m-Karten in deinem Gehäuse? Und eine Abwärme, dass du keine Heizung mehr brauchst? Oder wie wärs damit: Eine Geräuschkulisse, dass die Nachbarn meckern? Du zweifelst doch wohl nicht ernsthat den Fortschritt an, oder? :ugly:

Ich bin nicht 55nm oder für 40nm, selbstverständlich nicht.

Nein, du bist nicht 55nm. ... Was willst du mir sagen?

Mir ist nur unverständlich, wie ein Gutmensch soetwas zugeben kann.
Heute ist ******** ********, gestern wars ******** Gold.
Vollkommen logisch.

Ich habe leider nichts verstanden, weil da zuviel zensiert wurde. mäßige doch bitte deine Ausdrucksweise.
 
Eigentlich wollt ich mich hier durchlesen um zu gucken ob die 55nm wohl besser übertaktbar wären, aber anscheinend ist das ganze in Spam und Angemache geendet -.-"

Leute lasst doch gut sein. WAYNE !
 
Eigentlich wollt ich mich hier durchlesen um zu gucken ob die 55nm wohl besser übertaktbar wären, aber anscheinend ist das ganze in Spam und Angemache geendet -.-"

Leute lasst doch gut sein. WAYNE !


Entschuldigung dafür. Aber mich hat es nunmal aufgeregt, dass Tarvos willkürlich Leute als Lügner betituliert.

Naja, aber da er sowieso nicht mehr antwortet, ist die Sache gegessen. :D

(Wahrscheinlich lassen sich die 55nm-Modelle besser übertakten - ja.)
 
nVidia hat die bessere BQ, das ist Fakt.
Sowohl das Default AF, erst recht das HQ AF und das SSAA und TSSAA sind überlegen.

Alles nachzulesen entweder hier im Forum oder auf PCGH.de

Wavebreaker streitet dies wiederholt ab, demnach ist er ein Lügner, was sonst?
Soll man ihn für das ignorieren dieser Tatsachen belohnen?


Der Grund, warum er sich aufregt ist auch fragwürdig, die super 55nm Karten sind locker erkennbar, siehe PCB und Kühler.


Dein Link beweist lediglich, dass es vor der 1GB-Version eine 512MB-Version gab. :schief:
Und gleichzeitig, das es eine 1GiB Version gab. :schief:


Was zeigt uns das? Das die 1024BM-Version GDDR4 Speicher benutzt und die 512MB-Variante GDDR3, also bestreite nicht weiter, dass die HD2900 XT nicht auch mit GDDR3-Speicher ausgeliefert wurde/wird.
Du hast so getan, als ob GDDR4, das nichtmal irgendeinen Vorteil bietet, eine Neuerung der HD3 wäre.

:lol: Wir sprechen zwar die ganze Zeit vom Speicherinterface, aber egal. Du hast damit lediglich bewiesen, dass ich recht habe. Und zwar, dass es sinnvoll war, das Speicherinterface kleiner zu halten und dafür auf schnelleren Speicher zu setzen.
Nein, nur im Zusammenhang 2900 -> 3800, wo die Bandbreite halbiert wurde, was du als Vorteil ansiehst.
Danach gings um die Bandbreite.



Durchschnitt ca. 9.6%.

Demnächst einfach mal genauer hinschauen. ;)
Da freut sich der UT3 Spieler, das WoC schneller läuft. :schief:


Was erzählst du da?
Preissenkungen rechtfertigen neue Namen. Nach deiner Auffassung.
(GT200 -> GT200b; R600 -> RV670, ....)

Sagst du. Die HD2900 XT 512MB GDDR3 war genauso ein Modell wie die HD2900 Xt 1024MB GDDR4.
Schön das du es einsiehts. Blöd nur das die 3870 default mäßig nur 512MiB hat, somit habe ich Recht, die HD3 hat weniger VRAM als Neuerung gebracht.


Warum denkst du, dass mich das interessiert? Ich habe doch schonmal erwähnt, dass das vorbei ist. Nicht mehr wesentlich und so. Du erinnerst dich? Du hättest außerdem ruhig Nvidia erwähnen können, ich weiß nicht, weshalb du "nur wegen mir" nur AMD/ATI auflistest.
Du hättest wenigstens schreiben können, das das im Nachhinein der selbe Mist ist, wenns dich heute stört.


Ne? Bringt nichts? Dann hättest du also demnächst gerne 2m-Karten in deinem Gehäuse? Und eine Abwärme, dass du keine Heizung mehr brauchst? Oder wie wärs damit: Eine Geräuschkulisse, dass die Nachbarn meckern? Du zweifelst doch wohl nicht ernsthat den Fortschritt an, oder? :ugly:
Wieder nicht verstanden?
5% eventuelle Ersparniss, oh wie toll. Da bringt ein Biosupdate mehr.

Nein, du bist nicht 55nm. ... Was willst du mir sagen?
Das Wort "gegen" hättest du dir denken können, sofern dir aufgefallen wäre das ich ein Wort vergessen haben muss.


Ich habe leider nichts verstanden, weil da zuviel zensiert wurde. mäßige doch bitte deine Ausdrucksweise.
Überprüf mal die Zeichenlänge.
Früher war zensiert toll, heute ist zensiert zensiert.
Alles klar. :schief:
 
Der Thread ist jetzt 20 Tage alt, meint ihr nicht, dass ihr jetzt den Schei$ sein lassen könnt?!
Wollt ihr den Thread hier als Bewerbung an AMD/Nvidia schicken, dass ihr die Firma ja soo toll verteidigt habt, oder was soll die schei$$e?
 
Ich könnt jetzt auch anfangen...
Ja, geringere Bandbreite kann ein Vorteil sein, da die Herstellungskosten sehr runtergehen, als Ausgleich guten VRAM rauf und gut ist.
Der WoC Spieler lacht dann auch den UT3 Spieler aus, weil sein Spiel langsam läuft?

Schön das du es einsiehts. Blöd nur das die 3870 default mäßig nur 512MiB hat, somit habe ich Recht, die HD3 hat weniger VRAM als Neuerung gebracht.

Wieso weniger? 2900 XT hatte STANDARDMÄßIG auch nur 512mb. Meine HD4850 hat auch 1gb vram, heißt das, dass die GTX260 weniger vram als die HD4850 hat? Nur wegen einer Karte als Beispiel?

So, jetzt, da ihr es geschafft habt, mich auf das Niveau runterzuziehen, kann der Thread aber dicht... oO
 
Der WoC Spieler lacht dann auch den UT3 Spieler aus, weil sein Spiel langsam läuft?
Nein.

Nach dem Link läuft UT3 langsamer, WoC schneller.
Was hat jetzt der UT3 Spieler vom Upgrade 2900 -> 3800? Weniger FPS.


2900 XT hatte STANDARDMÄßIG auch nur 512mb.
Die 2900 XT hat standardmäßig 512 und 1024 MiB.
Die 3870 hat standardmäßig 512MiB.
Die 4870 hat standardmäßig 512 und nach dem Paperlaunch auch 1024MiB.
 
Zurück