Geforce GTX 460: Bilder und Benchmarks

Lass mich raten: Du hattest bis jetzt nur nVIDIA und damit noch nie das schlechte AF von ATi gesehen? ;)


Stimmt nich! Ich hatte mal für.. öhm... 5 Tage eine HD3870. :D Allerdings hab ich kaum eine Minute damit gezockt.
Ich kenne es halt von Screenshots. ^^ Ich verlasse mich da immer auf die speziellen Tests von CB, die sich ganz speziell mit AA / AF befassen und da sieht es eigentlich so aus, dass man Unterschiede mit der Lupe suchen muss. ;)
 
die frage muß korrekterweise lauten: wozu die 465?!

Die Antwort darauf ist aber sehr einfach: Abfallverwertung.

Interessanter wäre die Frage, welche Ausbaustufen für die GF100 Modelle ursprünglich geplant waren. (=sollte das kleinste GF100 Modell ursprünglich ein Stück oberhalb des größten GF104 liegen oder war von Anfang an ein Ablöseprozess vorgesehen?)

naja eigentlich schon ...
je höher die auflösung oder der detailgrad der texturen desto mehr vram wird gebraucht.
irgendwo müssen die bildrohdaten zur weiterberechnung ja gespeichert werden.
nen 10 mp bild braucht ja auch mehr platz als ein 3mp bild ( komprimierung hin oder her)

Komprimierung kann man sich in dem Fall sparen. Selbst ohne kommt ein 3mp Bild nur auf 14MB und ein 10mp Bild nur auf 40mb. In der Realität geht es aber um 1,3 bis 2,3MP (1280x1024 bis 1920x1200).
MSAA hat wesentlich mehr Einfluss auf den Verbrauch, Hauptlast sind und bleiben die Texturen. Ggf. sind Nutzer alter 19" aber auch da genügsammer. Zum einen sind mitlerweile viele Spiele für low-profile-Monitore optimiert, so dass schlichtweg weniger Texturen zeitgleich zu sehen sind und zum anderen braucht man keine 2048x2048 Tapeten in einem 1280x1024 Bildauschnitt zu verwenden.
 
Stimmt nich! Ich hatte mal für.. öhm... 5 Tage eine HD3870. :D Allerdings hab ich kaum eine Minute damit gezockt.
Ich kenne es halt von Screenshots. ^^ Ich verlasse mich da immer auf die speziellen Tests von CB, die sich ganz speziell mit AA / AF befassen und da sieht es eigentlich so aus, dass man Unterschiede mit der Lupe suchen muss. ;)

Screenshots sind natürlich auch DAS Mittel der Wahl, um Flimmern
zu untersuchen...
 
Komprimierung kann man sich in dem Fall sparen. Selbst ohne kommt ein 3mp Bild nur auf 14MB und ein 10mp Bild nur auf 40mb. In der Realität geht es aber um 1,3 bis 2,3MP (1280x1024 bis 1920x1200).
MSAA hat wesentlich mehr Einfluss auf den Verbrauch, Hauptlast sind und bleiben die Texturen. Ggf. sind Nutzer alter 19" aber auch da genügsammer. Zum einen sind mitlerweile viele Spiele für low-profile-Monitore optimiert, so dass schlichtweg weniger Texturen zeitgleich zu sehen sind und zum anderen braucht man keine 2048x2048 Tapeten in einem 1280x1024 Bildauschnitt zu verwenden.

Hier sollte man zudem noch ergänzen wie ich finde, dass neure Spiele meistens auch auf bessere texturen im direkten Vergleich zu den Vorgängern setzen (was ja auch logisch ist^^) und da reichen die 512 MB Vram einfach nicht mehr aus, außer man möchte den regler zurückdrehn :D
Außerdem gibts ja auch 21 zoll monitore, welche auf eine full HD Auflösung setzen, deswegen ist kleiner monitor nicht immer auch geringere Auflösung;)

mfg

Bärenmarke
 
hm wenn die 465 z. Zt. 250 kostet könnte die kleinere so 200€ und die größere 225€ kosten auf jedenfall wohl unter 250 und unter 250 ist fast 200 und 200 ist im budget also passt das dann
 
Manche Leute legen eben mehr Wert auf eine bessere Bildqualität ;)
Für 100-120 Euro wird man die bestimmt los.

Zudem macht Variante der HD5770 mit 512MB wenig Sinn, die mit 1GB sind ab 135 Euro gelistet.

:schief:
Die Karte ist billiger in der Herstellung als die GTX 465. Letztere stellt wohl nur eine Restverwertung der GF 100 Chips dar; Ich kann mir kaum Vorstellen, dass NV damit Gewinne erwirtschaftet.
Und das genau ist mein Problem...RESTEVERWERTUNG..dafür bezahle ich doch nix.:daumen2:
 
Dann kauf sie nicht.
Genauso wenig wie jede andere Art von beschnittener Karte,
oder beschnittener CPU (bspw. Phenom /Athlon X2/X3, HD 5750, HD 5830, HD 5850 ect. pp.).
 
Dann kauf sie nicht.
Genauso wenig wie jede andere Art von beschnittener Karte,
oder beschnittener CPU (bspw. Phenom /Athlon X2/X3, HD 5750, HD 5830, HD 5850 ect. pp.).

da hast du recht, sowas kaufe ich nicht. aber wenns aufs budget ankommt, dann sollte man schonmal drüber nachdenken. btw. mittlerweile gibts die hd5830 für unter 190 €. und ob die doppelt beschnittene 460 da rankommt, können wir nach einer zahl nun wirklich nicht wissen. in jeden fall vorgestern nachmittag bei mindfa.. bestellt, gestern mittag da. aber ich gebs zu, da kam ne vollwertige 5870 :-)
 
Wenn die Karte at stock auf dem Niveau der 465, dann kann man sich ja eigentlich schon genügend Benchmarks ansehen. Bei einem Preis von 200€ und einem geringeren Verbrauch könnte die Karte interessant sein. Allerdings sehe ich es noch nicht ein meine GTX 260 aufzugeben. Vielleicht wenn mal ein F-HD Monitor ins Haus kommt.
 
Imo ist das besser als irgendwelche bis zur Unkenntlichkeit komprimierten Flashvideos. ;)

Wie währe es mal selber zu Testen und nich immer nur irgendwelche Hardwareseiten wie PCGH CB selbst ist der Mann.
Wenn du selbst gesehen hättest wie der unterschied ist zwischen der BQ von Nvidia und Ati würdest du dich nicht mal mehr nach na ATI umsehen
 
Ich hab den Unterschied gesehen.:schief:
Mir ist wenig aufgefallen, jedenfalls nichts was rechtfertigen würde, NV zu nehmen.
 
Dann kauf sie nicht.
Genauso wenig wie jede andere Art von beschnittener Karte,
oder beschnittener CPU (bspw. Phenom /Athlon X2/X3, HD 5750, HD 5830, HD 5850 ect. pp.).


Schon komisch, du benennst hier nur AMD/ATI Produkte :what:, als wenn Nvidia und Intel das nicht auch machen würden. Das ist gang und gebe :P.

@Yanzco
Ach die BQ bei Nvidia wird überbewertet. Im Eifer des Gefechts siehst du da nicht mehr viel von, von daher Wayne.
 
Schon komisch, du benennst hier nur AMD/ATI Produkte :what:, als wenn Nvidia und Intel das nicht auch machen würden. Das ist gang und gebe :P.

Ganz einfach, bei den letztgenannten, geilen sich die Leute dran auf, bei AMD nicht. Und mein zitierter Post, war eine Antwort auf genau so eine sinnfreie "Aufgeilung".
Da setzt ich gerne Kontraste... weil letztlich ist es völlig normal, und wurde schon immer gemacht, Chips die nicht ganz dem Topmodel entsprechen, als kleineren Ableger zuverkaufen.

Von Selektion per Takt und/oder durch beschneiden der aktiven Transitoren, hat ja nicht nur die Firma was, sondern auch der (preisbewuste) Kunde.
 
Wie währe es mal selber zu Testen und nich immer nur irgendwelche Hardwareseiten wie PCGH CB selbst ist der Mann.
Wenn du selbst gesehen hättest wie der unterschied ist zwischen der BQ von Nvidia und Ati würdest du dich nicht mal mehr nach na ATI umsehen

Aus Langeweile kauf ich mir aber auch keine Grakas. :ugly: Bei AMD fehlt mir der CUDA-Support, weshalb ich lieber bei Nvidia bleib.
 
Ist es über die Jahre gesehen nicht schon immer das gleiche Spiel?!

Ich blicke zurück auf:
-486 DX2 66
-Cyrix Prozessoren
-AMDs K6
-Pentium 3
-Athlon XP
-Athlon 64 X2
-Core 2 Duo

und

-256KiB ISA Grafikkarte
-Voodoo1 (+4MiB PCI Grafikkarte ;D)
-Voodoo3 3000
-Geforce Ti4200
-Geforce 6800LE
-Geforce 7900GT
-Geforce 8800GT

Immer gab es ein Nonplusultra, den interessanten Preis-/Leistungskandidaten und die üblichen Randerscheinungen.

Nvidia hatte bei dieser Grafikkartengeneration (die Gründe seien erstmal dahingestellt) die Arschkarte. Nicht wegen der reinen Leistungsfähigkeit, sondern weil Sie diesmal wirklich deutlich den Anschluß verloren haben.

Genau das passierte aber z.B. auch bei Erscheinung der Core 2 Duo Architektur bei CPUs und sicherlich in den Jahren vorher bei anderen Inventionen und Architekturen genauso.

Die GTX460 scheint auch hier wieder ein Befreiungsschlag zu sein, weil... seien wir mal ehrlich... Der Ruf eines Produktes/einer Firma ist ähnlich wichtig und wichtiger, wie die Eigenschaften des Produktes selber.

Die GTX460 sieht interessant aus und ich verlasse mich auf PCGH, daß Sie diese Karte umfangreich beäugen und testen werden.
Ich sehe in dieser Karte einen potentiellen Nachfolger meiner 8800GT...

Bei Preisen um 200€...

MfG
 
Zurück