Galaxy zeigt Geforce GTX 680 mit 4 GiByte im Custom-Design und 1,1 GHz

Das stimmt zwar, dennoch würde ich einen 300PS TFSI von VW mit 15 Litern Verbrauch einem 300PS Amischlitten mit 30 Litern Verbrauch vorziehen (von anderen pros und Kontras mal abgesehen).
Ich finde ja auch, dass sich einige leute zu viel beschwerern über den Verbrauch solcher Karten, aber es sollte eben nicht alle Grenzen sprengen (was es bei der 28nm Generation ja auch noch nicht getan hat).

Ok kenn mich leider nicht gut genug mit PC/Hardware aus um zu sagen warum ne Karte so viel zieht usw..
Dein Beispiel ist aber genau mein Gedanke. Deshalb soll die Karte von mir aus so viel ziehen wie sie will hauptsache es steht in nem guten Kosten/Nutzen Faktor (was dein 300ps tfsi mit 15L ist :D )
 
Das stimmt zwar, dennoch würde ich einen 300PS TFSI von VW mit 15 Litern Verbrauch einem 300PS Amischlitten mit 30 Litern Verbrauch vorziehen (von anderen pros und Kontras mal abgesehen).

Da hast du schon recht.
Ich finde aber halt die Argumentationen gewisser Forums-Mitglieder immer wieder etwas eigenartig in diesem Zusammenhang (ohne Namen nennen zu wollen).
Da wird von der Effizienz geschwärmt, PCs wie meiner regelrecht geächtet und Meinungen von Usern denen der Stromverbrauch nicht so wichtig ist als unsozial deklariert.
Und in anderen Threads wird dann aber erzählt wie super toll sich die eigene Karte ocen lässt, und das Hersteller A mit höheren Taktzahlen kontern kann wenn Hersteller N mit schnelleren Karten kommt. Wobei dann plötzlich die Effizienz und der wesentlich höhere Stromverbrauch durch das Übertakten keine Rolle mehr spielen:schief:.
Also entweder man achtet auf Effizienz und Stromverbrauch bei Grakas, oder halt eben nicht. Aber sich wie ein Fähnchen im Wind zu drehen finde ich dann echt albern.

Aber genug davon. Ich musste nur mal Luft ablassen zum nervenden Thema Stromverbrauch bei Grafikkarten:D.
 
Zuletzt bearbeitet:
[Ironie]
Stromverbrauch, ich bitte dich, nimm eine turbine, und befästige diesen mittels eines Kailriemens an der Lüfterbefestigung, damit kannst noch Strom erzeugen für die Karte ;)
[/Ironie]

In den nächsten 4 Wochen wird sich so einiges an der GTX 680 verändern :D
 
Ja stimmt schon, man sollte da schon bei (s)einer Meinung bleiben.^^
Ich hab auch kein problem damit wenn eine High-End Karte unter Vollast 250W frisst wenns dumm läuft aber grade im Idle-Bereich (wo ich mich doch die meiste Zeit bewege) ists schön wenns wenig ist. Und da macht meine 580 nicht grade ne gute Figur... aber das ist jetzt kein Grund für mich zu wechseln.

Achja,
was dein 300ps tfsi mit 15L ist :D

Meiner hat "nur" 265PS und verbraucht bei normaler Fahrweise auch "nur" etwa 8 bis 9 l/100km :ugly:
 
Ja stimmt schon, man sollte da schon bei (s)einer Meinung bleiben.^^
Ich hab auch kein problem damit wenn eine High-End Karte unter Vollast 250W frisst wenns dumm läuft aber grade im Idle-Bereich (wo ich mich doch die meiste Zeit bewege) ists schön wenns wenig ist. Und da macht meine 580 nicht grade ne gute Figur... aber das ist jetzt kein Grund für mich zu wechseln.

Achja meiner hat "nur" 265PS und verbraucht bei normaler Fahrweise auch "nur" etwa 8 bis 9 l/100km :ugly:

8-9 Liter davon Träum ich :D Hab nen aufgemachten Puma der verbraucht im stand schon glaub 10l bei normaler fahrt gehen 12-13l drauf un unter "Last" gute 15 aber ich beschwer mich nicht wollte es ja so :devil:
aber zum Thema zurück:

Unter Last isses ja nichtmal schlimm weil wie oft fährt die Graka am Limit?
Im idle isses halt schon ******* wenn sie viel verbraucht un dabei garnichts groß Leistet. (wie mein Auto :ugly:)
Aber selbst dann isses noch kein Grund sich aufzuregen das macht vieleicht mal 100€ im Jahr aus. Für den einen oder andern sicher viel Geld aber wer sich ne Karte für 500€ zulegt un dann wegen 100€ Stromkosten mault der ist nicht zu verstehen..

Das was COOK sagt hab ich jetzt auch schon öfters im Forum mitbekommen und frag mich jedesmal was das soll?
In einem Thema wird geschrieben wie wenig die karte doch verbraucht.
Direkt darunter im nächsten Thema wird geschrieben wie toll sich die Karte OC lässt. :what:

Was das alles mit der GTX 680 zu tun hat?
Meine Meinung ist solange sie ordentlich Power hat un diese auch nutzt soll sie Saft ohne ende bekommen :hail: Und wie man ja schon gesehen hat is die GTX an ihrer Leistung ja nichtmal mehr so Stromhungrig wie noch die 580.
 
Schade, dass es die Galaxy Karten es meistens nicht nach Deutschland schaffen (zumindest nicht unter Galaxy; meistens unter KFA2), auch wenn gerne mal was anderes behauptet wird. Aber Leute, gestern habe ich noch daran gedacht, meine HD5870 bei eBay zu verticken und allein mit Onboard zu leben; komme derzeit mit der HD3000 meines Lappis und meiner PS3 ganz gut zurecht. Und die HD4000 soll ja nochmal ne Ecke schneller sein. Und heute lese ich plötzlich "GTX680 mit 4 GiByte VRAM und 1,1GHz" - da kriegt man wieder Hardware-Hunger :)!
 
Und wie man ja schon gesehen hat is die GTX an ihrer Leistung ja nichtmal mehr so Stromhungrig wie noch die 580.

Das stimmt - aber sie ist auch nicht so sehr ans Limit geprügelt wie Thermi. NVidia konnte die 7970 ja schon mit ihrer ursprünglich angedachten 670Ti schlagen und sie als 680 verkaufen.
Wenn die 7970 stärker gewesen wäre hätte man wohl entweder hier noch 100-200MHz ab Werk draufgelegt um zu gewinnen oder gleich den GK110 rausgeholt - und der wird wohl wieder eher 250-300W fressen :P

Und nebenbei: 8-9 Liter sind beim Cupra R machbar (mit Glück auch noch weniger) aber sehr "spaßfrei" - wenn man mehr drauflatscht sinds auch besagte 15. :-D
 
Und nebenbei: 8-9 Liter sind beim Cupra R machbar (mit Glück auch noch weniger) aber sehr "spaßfrei" - wenn man mehr drauflatscht sinds auch besagte 15. :-D
Bitte kommts mir nicht mit den zwangsbeatmeten Minimotoren. Im gegensatz zu Motoren mit gleichen PS aber mehr Hubraum sind die von der Haltbarkeit unterste Schublade. Sollte man sich schonmal paar Euros für Reperaturen zur Seite legen.

Nette Karte, 4GB finde ich allerdings ein wenig zu überdimensioniert. 3GB Ok, da ist noch Luft für Texturmods aber 4... naja :schief:
 
Bitte kommts mir nicht mit den zwangsbeatmeten Minimotoren. Im gegensatz zu Motoren mit gleichen PS aber mehr Hubraum sind die von der Haltbarkeit unterste Schublade. Sollte man sich schonmal paar Euros für Reperaturen zur Seite legen.

Nette Karte, 4GB finde ich allerdings ein wenig zu überdimensioniert. 3GB Ok, da ist noch Luft für Texturmods aber 4... naja :schief:

Naja, dass die 4 GB hat statt 3 liegt wohl am Interface/Layout der Karte, 3GB sind schlecht drin wenn man nur die Größe der Steine verdoppeln kann^^
Und sonst - die Turbo-Minis sind für mich die 1,2 oder 1,4TSI-ler... für das was ein Saugmotor mit 3 oder 4 Litern Hubraum mehr kostet als meiner kann ich ihn 10x reparieren lassen oder gleich 2x kaufen :ugly:
(nur dass man mit nem Auto-SLI nich viel anfangen kann) :D
 
wenn im nächsten halben Jahr eine Karte mit 8GB rauskommt, mache ich mir eine RAMDISK auf der GRAKA ^^
In einem Jahr wird das nicht mehr möglich sein da dann entweder der Grafik MOD der den Konsolenport ausbügeln muss den Speicher frisst oder das Spiel selbst!
 
Wieso? bei knapp 200GB/s Bandbreite kannste den kompletten vRAM selbst wenn er 4GB groß ist 50x pro Sekunde auslesen :ugly:

Hier im Artikel wird auch gesagt : "In der Theorie weist die Geforce GTX 680 ergo eine stärkere Limitierung durch ihre Speicherbandbreite auf als die GTX 580"
Die 256bit sind ein Flaschenhals schätze ich mal, aber NV ist ja schon länger bei hohen Auflösungen nicht unbedingt schlechter, aber verlieren prozentual mehr fps als amds, kann also auch an der Architektur liegen.
Klar paar FPS wird man in 1600p oder so dazu gewinnen, aber ich denke wie bei der GTX580 1,5 und 3GB wird sich nicht viel tun :) Test außer der Extremausreißer Far Cry2 nicht viel bis gar nichts
 
Zuletzt bearbeitet:
Die Rohleistung ist gestiegen die Bandbreite ist Gleich geblieben @ 580 vs. 680.
Dabei ist das Interfacce von 384bit auf 256bit gesunken dafür läuft der Vram auf 6GHz effektiv.

Wie es ausieht geht der bis ca. 7GHz, und OC ohne Ram bringt nicht mal die Hälfte.
Soweit ich weiß gibtes Vram der auch 8GHz schaft aber ob der Controller das mitmacht glaub ich nicht.
Da sind die 6-7GHz schon sehr beachtlich.

Nv wird es freuen das man eine 250€ Karte auch für über 400€ verkloppen kann.
Das zeigt schon das das ein recht großer Wurf war.
 
Hier im Artikel wird auch gesagt : "In der Theorie weist die Geforce GTX 680 ergo eine stärkere Limitierung durch ihre Speicherbandbreite auf als die GTX 580"
Die 256bit sind ein Flaschenhals schätze ich mal, aber NV ist ja schon länger bei hohen Auflösungen nicht unbedingt schlechter, aber verlieren prozentual mehr fps als amds, kann also auch an der Architektur liegen.
Klar paar FPS wird man in 1600p oder so dazu gewinnen, aber ich denke wie bei der GTX580 1,5 und 3GB wird sich nicht viel tun :) Test außer der Extremausreißer Far Cry2 nicht viel bis gar nichts
Die Speicherbandbreite gibt an wie schnell Daten bereit gestellt werden können. Die Ramgröße hat damit wenig zu tun.
Nur weil der Speicher doppelt so groß ist, werden die Daten ja nicht langsamer verschickt ;)
Aber es gibt schon einen höheren Verwaltungsaufwand etc. wodurch die Versionen einen Tick langsamer sind.
Das Problem ist eher, dass die 680GTX natürlich viel mehr Rechenleistung besitzt, die Bandbreite aber gleich geblieben ist. Somit kann es ganz schnell passieren, dass einige Einheiten verhungern weil die Bandbreite nicht ausreicht um alle zu beliefern.
Und das mit der Auflösung liegt an der Architektur. Je höher die Auflösung, desto weniger Verschnitt ergibt sich und da AMD eine Wavefront von 64 benützt verliert sie auch relativ weniger Leistung in höheren Auflösungen. Es ist wohl nicht so, dass AMD höhere Auflösungen schmecken, sondern das niedrigere Auflösungen auf AMD-Karten einen größeren Performance-Hit fördern.
 
Überzeugt mich jetzt erstmal nicht so. Ich würde mich eher freuen wenn man noch eine Anarchy rausbringt. Die war bei der GTX 580 genial leise.
 
Die Frage ist nicht, warum NVIDIA nicht 512bit Speicherinterface genommen hat, viel mehr ist die Frage, woran es lag, dass das wohl nicht ging. Denke die hätten bestimmt 512bit geplant aber womöglich spielte da was nicht so mit. :)
 
Zurück