Nvidia Geforce GTX 580: Mit GPU-Z Ampere-Sicherheitsschaltung deaktivieren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia Geforce GTX 580: Mit GPU-Z Ampere-Sicherheitsschaltung deaktivieren gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Nvidia Geforce GTX 580: Mit GPU-Z Ampere-Sicherheitsschaltung deaktivieren
 
bissl weit weg vom halben kw:ugly:
trotzdem wirklich schön des nvidia soetwas überhaupt eingebaut hat, und noch schöner des man es deaktivieren kann:daumen:
Mal schaun was sich da an OC betreiben lässt:devil:
 
naja mit den 380V würdest du die Karte erstmal samt deinem restzlichen System anständig grillen:ugly:.
Aber die 350Watt sind schon nicht wenig. Man muss sich halt letztendlich entscheiden, was man will. Viel Leistung und damit auch (viel) mehr Stromverbrauch oder weniger Leistung bei moderatem Verbrauch.
Auf jeden fall finde ich es gut, dass man die Furmark-Sperre nun aushebeln aknn und zu anständigen Vergleichswerten kommt.
 
Hinsichtlich der Leistungsaufnahme wird sich wohl erst wieder was mit der 32nm-Fertigung nächstes Jahr tun.
 
@Florian Eitel oder PCGH allgemein ..

Die Grafik ist falsch.
NVIDIA GeForce GTX 580 1536 MB Review - Page 25/31 | techPowerUp

Techpowerup.com hatte in ihrem eigenen Test mit Begrenzer 153W und ohne 304W als Leistungsaufnahme.
Jetzt packt der techpowerup Redakteur nochmal 50W drauf, weil er keine vernünftige Grafik hinbekommt oder weiß der Fuchs.

In eurem eigenen GTX 580 Test kommt ihr auf max 312W ... kenn ihr eure eigenen Ergebnisse nicht? :ka:
 
Wow, was für eine Verbesserung, dann halt nur max 312W :schief:.
Da beleuchte ich doch lieber meine 5 Räume mit dieser Leistung, als mir eine Single-Karte mit solchem Verbrauch ins System zu stecken.

---> persönliche Meinung ;)

MfG,
Explosiv
 
Die High End Fermies sind und bleiben bei der Leistungsaufnahme ein Flop. Ich hoffe Cayman XT und Pro sind ausgereifter.

Wenn ich raten/spekulieren müsste würde ich sagen der Cayman wird 5% langsamer als die 580 und verbraucht 25W weniger - ich glaube nicht dass AMD da so extrem Performance/Watt abliefern kann - würde mich aber freuen wenns doch so wäre, wenn die 6970 nur etwas langsamer ist und viel weniger Strom brauchen würde wirds meine nächste Karte.
 
Wenn ich raten/spekulieren müsste würde ich sagen der Cayman wird 5% langsamer als die 580 und verbraucht 25W weniger - ich glaube nicht dass AMD da so extrem Performance/Watt abliefern kann - würde mich aber freuen wenns doch so wäre, wenn die 6970 nur etwas langsamer ist und viel weniger Strom brauchen würde wirds meine nächste Karte.
sehe ich genau so nur müsste sie dann auch auch den Markt kommen :(
 
Das muss sie, vorher bleibt meine NotGPU 9600GT im Einsatz.
Ich meine selbst wenn ich mich für ne 580er entscheide wird der Preis mir sicher entgegenkommen wenn Cayman raus ist und zumindest etwas paroli bieten kann.
 
ich bin mehr relativ sicher dass die neuen AMD chips weniger verbrauchen müssen werden ^^weil wenn man die leistung und den Stromverbrauch der 5970 ansieht stellt man fest das dieser mit der Leistung und Verbrauch fast gleichauf mit der GTX580 liegt, und wenn es selbst Nvidia geschafft hat den Verbrauch zu senken, wenn auch gering xD, wird dies AMD erst recht hinkriegen ! und wenn man bedenkt das es Nvidia erst eine Generation später geschafft hat :lol:, steht dieser These nichts entgegen !
 
Naja... damit hat sich NVidia wohl selbst ins Bein geschossen. Bislang hats keine Karte auf so krasse Werte gebracht, zumindest keine Single-Core-Karte (von einer GTX480 mal abgesehen, aber die geht einfach sowas von garnich in der Leistungsaufnahme). Zudem finde ich es krass, dass Nvidia auf solche Mittel zurückgreift um den Wert niedrig zu halten.... Naja, meine Meinung eben.
 
Bleibt zu hoffen, daß eine solch unschöne Leistungsaufnahme nicht über die nächsten GPU-Generationen fortbestehen bleibt; sonst wird das High-End-Gaming nur was für betuchte Enthusiasten werden und wir kriegen auch hier noch ne Zwei-Klassengesellschaft.

Hab auch schon überlegt, wieder zu den Grünen zu wechseln, doch wenn ich das hier so seh... obwohl, man KANN diesen Lock aushebeln, MUSS man natürlich nicht...
 
Zuletzt bearbeitet von einem Moderator:
Narf was sich hier nur schonwieder aufgeregt wird... Solche absoluten Spitzenwerte im Verbrauch sind nun eben mal nicht Realitäts nah für Benchmarks und Stabilitätstest trotzdem brauchbar. Nurmal so zur Info ich surf hier grad im Dualmonitorbetrieb bei 150W Verbrauch des Pc´s
Beim Bfbc2 zocken (alles max. af:16x AA:8xcsaa um die 50fps) 400watt
GpuTool Stress test:350 watt wohlgemerkt läuft meine Gpu aktuell 770mhz bei 1.0V bei 1.1v und 850mhz genemigt sich mein System nur mit Gpu Vollast schon 425 Watt wenn ich jetz noch Prime(large fft) dazu anwerfe sinds dann doch 580Watt
Also regt euch nicht auf es wird eh Winter, meine Wärmemengenmessung sagt mir grade das ich von den 580Watt , 320watt benutze um mein Dachgeschoss zu heizen. Das nenn ich Green It :ugly:
 
Seh ich genau so entweder ihr habt die kohle oder gimpt mit ner Middle Range karte rum.
Is gibt weit aus Teurer Hobby´s oder habt ihr euch schon mal paar Alufelgen + Reifen satz gekauft.
Wenn jeder der hier rum jammert mal Energie Sparbrinen benutzen würde und andere Stromspar maßnahmen umsetzten würde wäre das hier garnicht das Thema hier.
 
Zurück