• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Palit Geforce GTX 580 im Hands-on-Test: Was bringen 3 GiByte RAM?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Palit Geforce GTX 580 im Hands-on-Test: Was bringen 3 GiByte RAM? gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Palit Geforce GTX 580 im Hands-on-Test: Was bringen 3 GiByte RAM?
 

Bennz

PCGHX-HWbot-Member (m/w)
nur schysis als Hardware fresser, die engine is einfach nur müll für die heutigen Grakas.
 

XXTREME

Lötkolbengott/-göttin
Ich glaube nicht das die 1,5GB auch nur irgendein Spiel inkl. Mods limitieren. 3GB sind Schwachsinn.
1,5/2GB sind genau richtig für solche "spielereien" wie Downsampling, Monstermods und ähnliches ;).
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Doch, wir haben schon ein paar Benchmarks zusammengestellt, wo 3 GiByte noch im knapp spielbaren Bereich (deutliche) Vorteile bringen. Das sind aber allesamt (Downsampling-)Extremfälle, die konstruiert werden müssen.

MfG,
Raff
 
G

Gast20150401

Guest
Textauszug:
Welches Klientel versuchen Palit und Gainward also zu bedienen? Absolute Enthusiasten: Nutzer von 30-Zoll-Bildschirmen mit der Auflösung 2.560 x 1.600, leidenschaftliche Downsampler und all jene, die ihre Spiele gerne mit Texturmods und extremen AA-Modi aufwerten.
-------------------------------------------------------------------------

Naja,wenn man mal bedenkt das es 27 zoll Monis und aufwärts schon für ab 270€ gibt,ist es nicht unwahrscheinlich das die Graka doch ihren sinn macht.Jedenfalls gibt es schon so einige die sich einen solchen großen Monitor zulegen.Schließlich brauchen die dann eine entsprechende Graka.Ich finde die möglichkeit einen großen Monitor anzuschließen mit guter Leistung schon ganz O.K.:)
 

fox40phil

Freizeitschrauber(in)
und ist dann ein SLI von der 3GB-Version bei dem angegeben Benchmark mit Crysis über 3k Auflösung spielbar?

Krass ist ja eigt schon, dass es bei 2560x1600 (unabhängig vom Ram) nicht flüssig spielbar ist...

komisch finde ich, dass ihr die DX9 Version genommen habt, ist das normal? ^^
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Naja,wenn man mal bedenkt das es 27 zoll Monis und aufwärts schon für ab 270€ gibt,ist es nicht unwahrscheinlich das die Graka doch ihren sinn macht.Jedenfalls gibt es schon so einige die sich einen solchen großen Monitor zulegen.Schließlich brauchen die dann eine entsprechende Graka.Ich finde die möglichkeit einen großen Monitor anzuschließen mit guter Leistung schon ganz O.K.:)

Die Größe des Monitors ist irrelevant – die Auflösung gibt den Ausschlag. ;) Die günstigen 27-Zöller sind Full-HD-Geräte (1.080p). Der Grafikkarte ist es egal, ob sie diese Auflösung auf 22 oder 27 Zoll darstellt.

MfG,
Raff
 

Jan565

Volt-Modder(in)
Die Karte hat mehr oder weniger schon ihren Sinn. Bei einer Auflösung von mehr als 3300x1600 ihrgendwas bringt es schon was. Aber da läuft so oder so kein Game mehr Flüssig mit einer Karte und allem im Anschlag. Da brächte man schon SLi, aber nur die wenigsten Spielen bei der Auflösung.

Da ich auch bald mit 5040x1050 Zocken werde, lohnt in meinen Augen eher eine 2. Karte als eine mit mehr Speicher.
 

dustyjerk

Freizeitschrauber(in)
wie viel prozent beträgt denn der größte bisher von euch getestete unteschied und bei welchem spiel und welchen einstellungen tritt dieser auf? =) das würd mich interessieren!
 
G

Gast20150401

Guest
Die Größe des Monitors ist irrelevant – die Auflösung gibt den Ausschlag. ;) Die günstigen 27-Zöller sind Full-HD-Geräte (1.080p). Der Grafikkarte ist es egal, ob sie diese Auflösung auf 22 oder 27 Zoll darstellt.

MfG,
Raff

Sicher das die größe irrelevant ist?:huh:

Denke eigentlich schon das ein 22er bei gleicher auflösung wie ein 27er doch einfacher für ne Graka ist.Sollte ich mich wirklich so irren??:huh:
 

bishop

Komplett-PC-Aufrüster(in)
Sicher das die größe irrelevant ist?:huh:

Denke eigentlich schon das ein 22er bei gleicher auflösung wie ein 27er doch einfacher für ne Graka ist.Sollte ich mich wirklich so irren??:huh:

eine größere Bildfläche bei der selben Auflösung bedeutet nur, dass die einzelnen Pixel größer werden, die Anzahl der anzusteuernden Signale ändert sich für die Graka nicht.
 

Z28LET

Software-Overclocker(in)
Wie die Leute, die erzählen, sie zocken am 52" Plasma TV und brauchen daher die schnellste Hardware überhaupt. :ugly::lol:

Zum Thema, scheint echt so, 3Gb sind zeitweise sogar hinderlich.
Zumindest im normalen Spielealltag.

Dann lieber noch ein paar Jahre warten, bis Spiele wirklich mehr Speicher brauchen. Dann sind die GraKas auch schnell genug, den Speicher sinnvoll auszunutzen.
 
$

$.Crackpipeboy.$

Guest
Finde nicht wirklich das die 3GB was bringen...irgendwie bin ich bissl enttäuscht.
 
G

Gast20150401

Guest
für die hardware schon, denn bei gleicher auflösung ändert sich ja nur die größe der pixel oder deren abstand, nicht aber die menge! das heißt die grafikkarte muss die gleiche anzahl pixel berechnen!

Hm....folgendes erlebte ich:
Graka HD 3870 Crysis mit 1650x1050 und 8xaa gespielt auf 19 Moni.lief gut.
Dann den Moni gewechselt...22 zoll...bei gleicher einstellung ruckelte es nur wie dusel.
Folgende Erklärung wurde mir gegeben: Der große Moni hat zwar die gleiche auflösung muß aber mehr Pixel berechnen,die Angabe der Pixel bezieht sich auf einen cm2 ....ergo,da der 22 Moni mehr fläche hat,also auch mehr Pixel...:(
Wer hat nu recht?:huh:

(heute hab ich ne HD5870....da läufts wieder..:D)
 

raetsch

PC-Selbstbauer(in)
Hm....folgendes erlebte ich:
Graka HD 3870 Crysis mit 1650x1050 und 8xaa gespielt auf 19 Moni.lief gut.
Dann den Moni gewechselt...22 zoll...bei gleicher einstellung ruckelte es nur wie dusel.
Folgende Erklärung wurde mir gegeben: Der große Moni hat zwar die gleiche auflösung muß aber mehr Pixel berechnen,die Angabe der Pixel bezieht sich auf einen cm2 ....ergo,da der 22 Moni mehr fläche hat,also auch mehr Pixel...:(
Wer hat nu recht?:huh:

(heute hab ich ne HD5870....da läufts wieder..:D)

probiers aus, mach mal ein weisses bild 1680 pixel breit und schau es auf dem 19" und 22" an. wenn die erklärung richtig wäre, würde auf dem 22" nicht die ganze breite ausgenutzt.
geh hin zu dem kerl, der diese erklärung gegeben hat, zeig mit dem finger auf ihn und lach ihn aus, das hat er sich verdient ;)

@bennz
wenn crysis eine cpu-limitierung hätte, warum nuzt dann kaum einer crysis für cpu-tests?
warum ist eine 6970 15% schneller als eine 6950, warum hat sie 10% mehr minfps?
warum skaliert sli mit 60% (hab auf die schnelle keine xfire skalierung gefunden), vgl mit gta4, bei 1680 0% skalierung
 
Zuletzt bearbeitet:
G

Gast20150401

Guest
probiers aus, mach mal ein weisses bild 1680 pixel breit und schau es auf dem 19" und 22" an. wenn die erklärung richtig wäre, würde auf dem 22" nicht die ganze breite ausgenutzt.
geh hin zu dem kerl, der diese erklärung gegeben hat, zeig mit dem finger auf ihn und lach ihn aus, das hat er sich verdient ;)

Jo,werds mal probieren..:daumen:

Muß nur mal schauen wies geht...:D
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Du könntest uns auch einfach glauben. ;) Die Grafikkarte berechnet ihre Pixel. Wie groß jedes einzelne letztendlich dargestellt wird, entscheidet sich erst, wenn die Berechnung schon durch ist.

MfG,
Raff
 
G

Gast20150401

Guest
Du könntest uns auch einfach glauben. ;) Die Grafikkarte berechnet ihre Pixel. Wie groß jedes einzelne letztendlich dargestellt wird, entscheidet sich erst, wenn die Berechnung schon durch ist.

MfG,
Raff

Ich weiß das ich bei euch gut beraten bin,sonst würd ich nicht hier sein.Danke nochmal dafür:daumen:
Gruß Frank
 

Bennz

PCGHX-HWbot-Member (m/w)
@bennz
wenn crysis eine cpu-limitierung hätte, warum nuzt dann kaum einer crysis für cpu-tests?
warum ist eine 6970 15% schneller als eine 6950, warum hat sie 10% mehr minfps?
warum skaliert sli mit 60% (hab auf die schnelle keine xfire skalierung gefunden)


so erstmal auslachen :lol:, ironie an! der prozi bremst. ironie off :schief:

dumme zweite frage, takt shader einheiten blabla (weils vom rating her sonst ned passt) oder wäre es dir lieber das eine 6950 schneller ist wie eine 6970? im ganzen trobsdem zuwenig.

warum wohl, weil die textur einheiten verdoppelt werden! (Sli interessiert mich nicht).
 

raetsch

PC-Selbstbauer(in)
so erstmal auslachen :lol:, ironie an! der prozi bremst. ironie off :schief:

dumme zweite frage, takt shader einheiten blabla (weils vom rating her sonst ned passt) oder wäre dir 6950 schneller wie 6970 lieber? trobsdem zuwenig.

warum wohl, weil die textur einheiten verdoppelt werden! (Sli interessiert mich nicht).



schau dir nen crysis test an, in dem 800*600 und 1680*1050 gebencht wird und zieh deine schlüsse...

dumme zweite frage, takt shader einheiten blabla (weils vom rating her sonst ned passt) oder wäre dir 6950 schneller wie 6970 lieber?

warte, brauchst ned, hast die antwort ja schon selbst gegeben. wenn du dir mal crysis tests mit gleicher graka anschaust fällt dir nämlich auf, dass die minfps nahezu gleich sind...
 
Zuletzt bearbeitet:

Bennz

PCGHX-HWbot-Member (m/w)
schau dir nen crysis test an, in dem 800*600 und 1680*1050 gebencht wird und zieh deine schlüsse...

HMM den nerv getroffen, nur des hirn ned :what:. un laber mich ned die ganze zeit wegen dem cpu scherz voll.

warte, brauchst ned, hast die antwort ja schon selbst gegeben. wenn du dir mal crysis tests mit gleicher graka anschaust fällt dir nämlich auf, dass die minfps nahezu gleich sind...

was soll mir das sagen das die neuen amd karten ******** sind? das heutzutage alle karten mehr auf shader setzen als auf tmus? engine shice und basta.
 

-Lucky+Devil-

Freizeitschrauber(in)
(Back to 3GiB GraKa ... die letzten 4 Posts haben da ja weniger mit zu tun)

Hallo


Da ich auch bald mit 5040x1050 Zocken werde, lohnt in meinen Augen eher eine 2. Karte als eine mit mehr Speicher.

Wenigstens wurde einmal darauf hingedeuted. Der Speicher der 2ten Karte wird aber zwar quai nicht genutzt, darum ist ein grosser Speicher bei der Auflösung von Vorteil.

3GiB sind zwar heutzutage noch ein bisschen viel, aber für Triplehead-Gaming in max. Qualität bei einer Auflösung von 3x1920x1200 glaube ich DEFENITIV, dass 3 GiB was bringen. Wenn man dann auch noch DownSampling oder Mods betreiben will, wird sich der Speicher schon lohnen.

Also meine nächste GraKa wird auch viel VRAM haben (2GiB 560Ti), denn ich zocke mit 3840x1024 und würde auch gern neue Zocks in hoher Quali und mit Kantenglättung spielen.

Ich finde es einen Schritt in die richtige Richtung.

Besonders, weil man ALLE PAAR Jahre von irgendwelchen Leuten Sachen hört wie:"512 MiB ... wer braucht denn das heutzutage ... niemand". Geht mir langsam sowas von auf den Senkel. Würden nämlich ZUERST die Spiele da sein, die soviel VRam brauchen, dann würden GENAU die gleichen Leute gegen die GraKa Hersteller wettern:"Die checken's nicht. 512 MiB sind viel zu wenig".

Klar gibt es die eine oder andere Karte, bei der zuviel Speicher verbaut ist, wenn man sich deren Leistung betrachtet, aber eigentlich sollte jeder froh sein, wenn es in irgendeiner Form fortschrittlicher wird.

Es müssen halt nunmal, so wie es aussieht, zuerst die Speicherbänke voller sein und dann kommen die Spiele, die es nutzen.

Und was soll's, Speicher ist grad billig. :)

MFG
:D

Ich würde mir bei dem Speicher einen Triplehead Test wünschen (hohe Auflösung halt).
 
Zuletzt bearbeitet:

raetsch

PC-Selbstbauer(in)
HMM den nerv getroffen, nur des hirn ned :what:. un laber mich ned die ganze zeit wegen dem cpu scherz voll.



was soll mir das sagen das die neuen amd karten ******** sind? das heutzutage alle karten mehr auf shader setzen als auf tmus? engine shice und basta.

es soll dir sagen, dass dein wissen keins ist, deine aussage = deine meinung und diese falsch ist ;)
zumindest belegen das
Test: AMD Phenom II X4 920 und 940 Black Edition (Seite 26) - 08.01.2009 - ComputerBase

und

Test: AMD Phenom II X4 920 und 940 Black Edition (Seite 19) - 08.01.2009 - ComputerBase
 

Quake2008

BIOS-Overclocker(in)
Sicher das die größe irrelevant ist?:huh:

Denke eigentlich schon das ein 22er bei gleicher auflösung wie ein 27er doch einfacher für ne Graka ist.Sollte ich mich wirklich so irren??:huh:



Nehmen wir mal an du hast zwei Schränke, einer ist 22 Groß und der andere 27 Groß, die Schränke muss du mit Büchern füllen. Der 22er wird perfekt gefüllt und im 27er hast du noch bischen Platz, daher verteilst du die Bücher bischen mehr auseinander. Was bei der Aktion bleibt ist eine Konstante, der Aufwand den du betreibst ist der gleiche.
 

INU.ID

Moderator
Teammitglied
Naja,wenn man mal bedenkt das es 27 zoll Monis und aufwärts schon für ab 270€ gibt
Nicht die Größe ist, wie schon erwähnt, von Bedeutung, sondern die Auflösung. Flachbildschirme mit mehr als FullHD-Auflösung gibt es nicht für 270€. Der günstigste TFT mit 2560x1440 Pixel kostet im Moment 660€, mit 2560x1600 Pixel gibt es keinen unter 1000€.
 

kuer

BIOS-Overclocker(in)
(Back to 3GiB GraKa ... die letzten 4 Posts haben da ja weniger mit zu tun)

Hallo



Wenigstens wurde einmal darauf hingedeuted. Der Speicher der 2ten Karte wird aber zwar quai nicht genutzt, darum ist ein grosser Speicher bei der Auflösung von Vorteil.

3GiB sind zwar heutzutage noch ein bisschen viel, aber für Triplehead-Gaming in max. Qualität bei einer Auflösung von 3x1920x1200 glaube ich DEFENITIV, dass 3 GiB was bringen. Wenn man dann auch noch DownSampling oder Mods betreiben will, wird sich der Speicher schon lohnen.

Also meine nächste GraKa wird auch viel VRAM haben (2GiB 560Ti), denn ich zocke mit 3840x1024 und würde auch gern neue Zocks in hoher Quali und mit Kantenglättung spielen.

Ich finde es einen Schritt in die richtige Richtung.

Besonders, weil man ALLE PAAR Jahre von irgendwelchen Leuten Sachen hört wie:"512 MiB ... wer braucht denn das heutzutage ... niemand". Geht mir langsam sowas von auf den Senkel. Würden nämlich ZUERST die Spiele da sein, die soviel VRam brauchen, dann würden GENAU die gleichen Leute gegen die GraKa Hersteller wettern:"Die checken's nicht. 512 MiB sind viel zu wenig".

Klar gibt es die eine oder andere Karte, bei der zuviel Speicher verbaut ist, wenn man sich deren Leistung betrachtet, aber eigentlich sollte jeder froh sein, wenn es in irgendeiner Form fortschrittlicher wird.

Es müssen halt nunmal, so wie es aussieht, zuerst die Speicherbänke voller sein und dann kommen die Spiele, die es nutzen.

Und was soll's, Speicher ist grad billig. :)

MFG :D

Ich würde mir bei dem Speicher einen Triplehead Test wünschen (hohe Auflösung halt).


Also wenn du über drei Monitore spielen willst, dann solltest du leiber auf AMD Karten setzen. Da ist die Leistung der AMD Riege das Mass alles Dinge, zumal du wehniger Geld bezahlen must. Da gibt es bei CB einen richtig guten Test und nette Vergleiche. Auf diesem Sector hat NV voll verpennt. Mit einer 560 wird das nicht gehen.
@ Test: mehr ist halt nicht immer mehr. Hier ist es Geldschneiderei. Genau so Sinnfrei wie eine 6970 mit 4 GB aus zu statten. :schief:
 

Bennz

PCGHX-HWbot-Member (m/w)
Nicht die Größe ist, wie schon erwähnt, von Bedeutung, sondern die Auflösung. Flachbildschirme mit mehr als FullHD-Auflösung gibt es nicht für 270€. Der günstigste TFT mit 2560x1440 Pixel kostet im Moment 660€, mit 2560x1600 Pixel gibt es keinen unter 1000€.

Leider ja.
 

-Lucky+Devil-

Freizeitschrauber(in)
Also wenn du über drei Monitore spielen willst, dann solltest du leiber auf AMD Karten setzen. Da ist die Leistung der AMD Riege das Mass alles Dinge, zumal du wehniger Geld bezahlen must.

Da man zu Nvidia Surround ein SLI-System braucht, glaube ich, dass hier genügend Leistung vorhanden ist. Für die Mehrleistung gebe ich dann gerne ein paar Euros mehr aus.

Da ich zur Zeit Nvidia Surround mit 2x GTX260 nutze, denke ich, dass ich sagen kann, dass Nvidia Surround genauso gut ist wie Eyefinity, bis auf die Tatsache, dass man zwei Karten braucht. Finde ich persönlich aber voll in Ordnung und ist somit wieder Geschmackssache. Darüber lässt sich nicht streiten. ;)
(Habe zwar kein Eyefinity, aber viel gelesen und verglichen)

Sorry für OT! Dann nochmal kurz zum Thema: 2 GiB hätten zwar auch genügt, aber wer weiss, was die Spiele in einem Jahr bringen. Ich bin froh für ein bisschen Puffer nach oben! Und ich, als Multimonitor-Zocker, begrüsse die "lieber zuviel, als zu wenig" Speicherlösung seitens Nvidia.
 

Pyroplan

Freizeitschrauber(in)
Wieso macht es erst im SLI Sinn?

weil 2 karten im sli dann auch nur 3gb hätten, da die sich den "teilen" müssen.
und 2 karten haben wesentlich mehr daten hin und her zu scheffeln.
und man sieht ja im test, ab welcher auflösung der große Speicher erst einen nutzen hat. Nur eine ist dafür deutlich zu schwach.
 

RavenlordX

Freizeitschrauber(in)
weil 2 karten im sli dann auch nur 3gb hätten, da die sich den "teilen" müssen.
und 2 karten haben wesentlich mehr daten hin und her zu scheffeln.
und man sieht ja im test, ab welcher auflösung der große Speicher erst einen nutzen hat. Nur eine ist dafür deutlich zu schwach.

War mir ehrlich gesagt noch nie klar, das SLI nur den SPeicher einer Karte nutzt. Wurde auch nie groß Rummel gemacht, dass dies so ist.

Hatte auch mal 2 8800 Karten im SLI und konnte bei GTA 4 z.B. auch 1536 MB nutzen statt die 768 MB einer Karte. Rätsel über Rätsel :)
 

P@tC@sh

PC-Selbstbauer(in)
Schön hat man die Auswahl(sofern nötig und den Zaster),ausserdem auch gut dass die GTX 570 mit doppelten Speicher kommt(wie gesagt für die mit Bedarf und entspr. Geld sicher interessant IMO).
 
Zuletzt bearbeitet:

dereinzug

Komplett-PC-Käufer(in)
Hallo,

ich weiß, es ist nur ein Hands-On-Test.
Bei Tests, die darauf abzielen, ob eine unterschiedliche Menge an VRAM einen Einfluss auf die Performance hat, würde mich in Zukunft der VRAM-Verbrauch interessieren.

Zumindest bei nVidia wärs ja kein Aufwand mehr, das herauszufinden.

ciao Tom
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Die ausgelesene Zahl hat leider nur eine bedingte Aussagekraft. Selbst wenn eine Karte "Ich bin voll" meldet, muss das nicht zwangsläufig heißen, dass die Fps in den Keller gehen. Das Kontingent dedizierten Speichers muss auf einer Geforce um mehrere Hundert MiByte überlaufen, damit sich etwas tut.

Beim abgelichteten Crysis Warhead-Benchmark in 3.840 x 2.160 werden laut Afterburner und GPU-Z knapp über 2.000 MiByte belegt.

Im Heft werden wir das alles angeben und breittreten. :-)

MfG,
Raff
 

Incredible Alk

Moderator
Teammitglied
War mir ehrlich gesagt noch nie klar, das SLI nur den SPeicher einer Karte nutzt. Wurde auch nie groß Rummel gemacht, dass dies so ist.

Hatte auch mal 2 8800 Karten im SLI und konnte bei GTA 4 z.B. auch 1536 MB nutzen statt die 768 MB einer Karte. Rätsel über Rätsel :)

Das Rätsel ist ganz einfach.
Doof ausgedrückt rendern bei SLI die Karten jeweils abwechselnd einen Frame (ich nehme mal AFR an da das am einfachsten zu erklären ist). Weil dem so ist gibts 2 Möglichkeiten den RAM aufzuteilen - Szenario 2x1536MB auf GTX580 = zusammen 3GB:

1.) 3GB RAM für beide Karten verfügbr machen oder
2.) Jede Karte ihre eigenen 1,5GB nutzen lassen und die Daten spiegeln.

Version 1 hätte den Vorteil, dass tatsächlich bei 2 Karten die 3GB voll nutzbar wären aber man benutzt dennoch Variante 2 und es bleibt bei effektiv vom Spiel genutzen 1,5GB.
Warum das so ist: Wenn der RAM für beide Karten gleich benutzbar wäre dann müssten die Daten sehr oft aus den Speicherchips von Karte 1 ausgelesen, über den PCI-e Bus an die 2. GPU gesendet, dort verrechnet und wieder zurückgeschrieben werden.
Die Latenzen und Bandbreiten des PCIe-Busses sind aber der Direktverbindung zwischen GPU und RAM um ein vielfaches unterlegen - diese Methode würde einen enormen Performanceeinbruch zur Folge haben.

Aus dem Grund sind die Daten der beiden Karten im RAM identisch um nichts über den PCIe schicken zu müssen - und deswegen darf man bei SLI (oder Multi-GPU Karten) die RAM-Menge auch nicht addieren.
 
Oben Unten