MSI: Geforce GTX 260 mit 1.792 MiByte VRAM

alles andere kann man bei Games, von der Größe garnicht mehr vollständig einsehen. und wer sitzt schon 50+cm vom Bildschirm entfernt......

Ich! :)
Etwa 1.10m, mal gemessen eben, an einem normalen Tisch mit 80cm Tiefe.
Ganz hinten aufgestellt ist auch der grosse 27er so kein Problem, fehlender Überblick fiel mir da noch nie störend auf.

22" oder 23" mit 1920 x 1080 sind optimal zum Gamen.
Bei sehr engen Platzverhältnissen sicher, aber sonst schon sehr Geschmacksache.
An die Atmosphäre mit so nem grossen Bild ab 26er aufwärts kommt ein 22er Winzling halt nie auch nur annährend ran, möchte jedenfalls nie mehr zurück zum "Gucklochgaming". ;)
So etwa wirken 22er bald, wenn man sich an grössere gewöhnt hat.

Sehe ich auch so. Vor allem wenn man bedenkt, je größer der TFT und die Auflösung umso öfter muss man eine neue Grafikkarte kaufen ;)

Das allerdings stimmt natürlich, von nix kommt halt auch da nix.
 
alles andere kann man bei Games, von der Größe garnicht mehr vollständig einsehen. und wer sitzt schon 50+cm vom Bildschirm entfernt......
Besserer Überblick sollte doch der Vorteil von WideScreen sein und nicht ein großer Bildschirm, wo man vom Zentrum weggucken muss, um zu sehen, was an den Ecken abgeht.

22" oder 23" mit 1920 x 1080 sind optimal zum Gamen.

mfg


lol das is doch lächerlich. Also Spar dir doch das Geld für größere Bildschirme wenn du den effekt der Größe immer wieder zu nichte machst damit das du den Bildschirm gleich weiter weg stellst. Ich seh das so:
Bei Spielen möchte ich das "mitendrin" Gefühl haben und das geh nicht wenn ich einen kleinen TFT vor mir hab wo ich dann noch meine Schrankwand etc sehe. Hab ich einen Großen Bildschirm und stell ihn wieder weiter weg sehe ich wieder nur ein kleines Bild und Schrankwand etc. Ich setzt mich vor meien 24" genauso nah wie vor meinem Alten 20" oder meinen 17" laptop. Es ist eine 10mal besseres Spielegefühl wenn ich meinen Kopf ganz leicht mitbewegen muss und auch meine Augenwinkel beim Spielen genutz wird.
Ich hasse es immer wenn Leute meinen sie haben sich nen 42" Tv gekauft und müssen sich erstmal 4 meter weiter weg setzten... lol da können sie auch ihren alten 25" nehmen und sich nah davor setzten... gleich effekt...sau dumm...:ugly::ugly::ugly:
 
Nun,wenn Takt nicht alles ist,wozu wirds denn deiner Meinung nach Entwickelt?

GDDR4 hat schon im vergleich zu GDDR3....ca.57% mehr Datendurchsatz....und GDDR5?...überleg mal. :devil:

Sag mal schreibst du eigentlich immer solchen Blödsinn?

Und was hat den bitte schön die Spannung mit dem Verbrauch zutun, auch wenn GDDR5 weniger Spannung als GDDR3 benötig heisst das noch lange nicht das der auch weniger Strom benötigt.

Wenn wir schon beim Datendurchsatz sind, schon mal was von Timings gehört?

Übrigens gibt es von Samsung bald GDDR3 mit 1400MHz (2800MHz)!

In anbetracht das GDDR5 bei gleichem Takt ca. 20% langsamer als GDDR3 ist müsste der GDDR5 schon richtig hoch takten (was natürlich auch mehr verbraucht) um mit einem kleinen SI (256Bit) gegen ein 512Bit SI GDDR3 mit zu halten!

Auf GDDR4 gehe ich jetzt mal gar nicht ein, das war eh der grösste rein Fall da es nie mit GDDR3 mithalten konnte Stichwort Timings...

GDDR5 ist schon gut, aber SICHER NICHT als Ersatz gegen ein breites SI, früher oder später werden wir GPUs mit 512Bit GDDR5 sehen!

und fängt jetzt nicht mit den kosten an, keiner hier kann beurteilen ob 256Bit GDDR5 billiger ist als GDDR3 mit 448Bit (GTX 260) oder 512Bit (GTX 285)

Die Begründung das ein PCB mit 512Bit deutlich teurer sein soll als eins mit 256Bit ist eh komplett haltlos, solche PCB kosten wohl in der Menge 1-3 US Doller lol

Die kosten Ersparnis bei 256Bit liegen sicher NICHT im PCB sonder bei der Menge (256Bit 8Stück / 512Bit 16Stück) an verbauten Speicher, aber wie gesagt was und wie Teuer das zeug ist kann keiner hier beurteilen!
 
Zuletzt bearbeitet:
Deshalb ist man auf längere Sicht gesehen, mit einem "kleineren" (ein 22" ist jetzt nicht wirklich klein :D) TFT besser beraten ;)

Sehe ich auch so. Ich will meine Grafikkarte erst maximal nach 18Monaten tauschen, nicht alle 12 Monate.

Lieber einen 22" oder 23" mit full HD und vernünftiger Backlight (kein CCFL gemeint). Von 24+ mit TN Panel will ich erst garnicht sprechen.


@DirtyOli

Das mag sehr schön sein im Singleplayer Gaming mit deinem "Schwenk Gefühl", aber wenn man etwas mit ambionierten Absichten spielt, will ich alles sehen, was in meinem Umfeld passiert und nicht von oben rechts (Sniper zB.) gefraggt werden, nur weil ich mich auf Zentrum konzentriert habe.
Das passiert dir dann nun mal bei einem zu großen TFT.

Sonst kann man auch gleich auf einem 42" LCD zocken, da hast du dann auch gleich dein HomeTheather System dabei für den richtigen Sound. Dort kommt dann richtiges mittendrin Gefühl auf.

mfg
 
Übrigens gibt es von Samsung bald GDDR3 mit 1400MHz (2800MHz)!


Man kann doch jetzt schon 1200 - 1400 Mhz aus den GDDR3 Speichersteinen rausholen.

XFX hat zB. schon zu Anfang die GTX260 (xxx Version) mit 1200Mhz ausgeliefert. Da waren dann auch noch 1300Mhz bei mir drin.

Da ist die Entwicklung noch nicht am Ende (DIE Shrink etc.)

mfg
 
Man das hat ja ewig gedauert bis jemand gemerkt hat das die standartbestückung manchmal knapp bemessen ist,und der GDDR3 speicher passt gut zu dem schon leicht angestaubten GT200;)
Bin auch schon gespannt ob die sparausführung des neuen PCBs das alles verkraftet:D
 
warts mal ab wir habens ja gesehen das GDDR4 genauso wie der RDRAM nicht durchsetzen konnten.
GDDR5 (denk ich mal) wird es auch nicht sehr lange schaffen bis GDDR6 etc herauskommt
 
warts mal ab wir habens ja gesehen das GDDR4 genauso wie der RDRAM nicht durchsetzen konnten.
GDDR5 (denk ich mal) wird es auch nicht sehr lange schaffen bis GDDR6 etc herauskommt

Dann werden die Latenzen noch höher sein.

Ist ja vom Prinzip nix anderes wie beim normalen Arbeitsspeicher.
Wenn man sich da mal DDR3 ansieht, bringt der zwar durch den höheren Takt eine größere Bandbreite mit, aber die zu hohen Latenzzeiten machen vieles davon wieder zunichte.

Kann mich noch gut an DDR1 Zeiten erinnern: 300Mhz mit CL1 :schief:

mfg
 
Dann müsste mein um etwa 300Mhz übertakterer RAM jaauch lahmer sein wegen 5/5/5/15 (1100MHz) bei 800 geht es auch mit 3/3/4/12

Latenzen machen nicht alles aus, nehmen aber Einfluss auf die Gesamtperformance des Speichers.
Wenn du einen 775er System hast machen die Latenzen weniger aus, hier ist der Takt etwas ausschlaggebender, aufgrund des FSB.
Sitzt jedoch der Speichercontroller in der CPU, zB. Phenom oder i7, dann nehmen Latenzzeiten eine wichtigere Rolle ein, aufgrund der direkten Kommunikation mit der CPU über eine schnellere Anbindung zum Speicher.
Hier zeigt es sich eher, wenn die Ansprechzeit pro Zyklus hoch liegt.


mfg
 
Mal zum eigentlichen Thema:

@PCGH-Redaktion: Könnt ihr damit wohl mal probieren, ob ihr eventuell GTA4 auf voller Sichtweite damit schafft?

Das soll ja angeblich sogar für 1GiB-VRAM-Karten zuviel sein (ich weiß es nicht, ich spiel kein GTA^^) - aber ~1,8 GiB dürften doch reichen..
 
@ Split99999

Shadow of Chernobyl samt HighRes-Texture- und POM-Mod stürzt auf meiner GTX280 mit 16xS reproduzierbar ab - mehr als 1,5 GiB Videospeicherauslastung sind zuviel des Guten :D

cYa
 
@Marc: Die GTX280 hat nicht einmal genug Rechenleistung für stinknormales 4XFSAA in Stalker SoC, da helfen dann auch keine 2GB Vram ;)
 
OMG wie dumm ihr doch alle seid, vorallem "Kosake" ist mir durch Hinnakhaftes verhalten negativ aufgefallen.

-Zu den ach so großen 24" Monitoren, Ich habe hier zuhause einen 24" LG stehen und er ist sicher nicht zu groß, ich würde sogar sagen das mein nächster ein 26"er wird oder noch größer. Ich muss meinen Kopf leicht drehen was mich aber nicht stört, bzw. nichtmal auffällt, weil es automatisiert passiert.
+ Es kommt ja auch immer drauf an was man macht/spielt. Für Office bzw. nichtspieler ist ein 24" einfach Göttlich, soeiner bin ich. Aber ich Spiele auch gelegentlich und da habe ich keine Probleme das ich mal was nicht sehe oder so.
Aber ok das ist vieleicht GEschmackssache.

-Zu eurer Kleinen Bandbreiten streiterei

GDDR5 ist Sparsammer als GDDR3, das ist fakt dank niedrigerer Spannungen. Natürlich bei gleichem Takt ;) Weil die HD4870 aber viel mehr Takt hat frisst sie auch dementsprechend mehr ;)
und das GDDR5 langsamer oder nicht soviel bringt ist auch blödsinn, siehe leistungssprung von HD4850 zu HD4870.
und zu der Anbindung.
Was denkt ihr warum ist die GTX280/260 etc. so Groß ??
Das hat sie der Speicheranbindung zu verdanken und stellt euch mal vor was passier wenn man 768 oder 1024bit drufpackt... das ist zurzeit einfach unmöglich, vieleicht irgentwann wenn die transistoren schrumpfen etc. Auserderm glaubt ihr die GTX karten verbrauchen soviel Strom nur wegen der Ganzen Stream/vektoren und Speicher oder was? Falsch! das ist unter anderem wegen der großen Anbindung.
und ja grundsätzlich egal ob
256bit+GDDR5 oder
512bit+GDDR3
kommt in etwa auf die selbe Bandbreite raus.
Aber es ist einfach viel leichter GDDR5 zu verbauen als in die gesamte architektur ein 512bit System Reinzupressen.

@Kosake
Du redest viel aber sagst wenig;) also spar dir die Beiträge.
 
Zuletzt bearbeitet von einem Moderator:
Zurück