• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

8800 GTX Overclocking

chuchuchu

Kabelverknoter(in)
Guten Tag!
ich wollte mal fragen wie weit ich meine Grafikkarte so in etwa übertackten kann.Hat jemand oc-erfahrungen mt der graka gemacht?ich freue mich auf eure antworten=)

MFG
chu
 

Masher

Freizeitschrauber(in)
Meine läuft @8800 Ultra....also mit 612(geht locker)/1080(wird mit Lukü schon kritisch).....in Ausgabe 10/2007 war eine Tabelle(falls du die hast)......^^
 

jetztaber

PCGHX-HWbot-Member (m/w)
Mit WaKü geht meine XFX 8800 GTX 680/1030. Das Problem bei meiner ist wohl der Speicher, dafür geht der G80 recht gut. Bei solchen Aktionen habe ich nie mehr als 67°C aufgrund der Wakü.
 

PartyBoy69

Komplett-PC-Käufer(in)
Gibt´s denn kein automatisches OC Tool für die 8800GTX unter Vista?Oder geht cool bits noch unter Xp? Dann bräucht ich ja nur mal Xp installieren
 

jetztaber

PCGHX-HWbot-Member (m/w)
Was genau meinst Du mit automatisch?
Das Einstellen von bestimmten Taktraten beim Start von Windows oder das Einstellen lastabhängiger Taktraten (OC bei der Anwendung von 3D-Programmen) geht z.B. mit RivaTuner.
 

DF_zwo

PC-Selbstbauer(in)
(OC bei der Anwendung von 3D-Programmen) geht z.B. mit RivaTuner
Das ist richtig, jedoch ausgesprochen umständlich. Wesentlich besser geht es mit ATI Tool von der Hand, was leider nicht einfandfrei unter Vista läuft, jedenfalls bei mir nicht.

Es sollten bei fast jeder GTX Taktraten von ca 650 MHz Kerntakt erreicht werden können. In vielen Fällen sogar 700 MHz ! Das der Stock Kühler da nicht ganz hinterherkommt, sollte man aber bedenken. Im Winter geht es warscheinlich, aber im Sommer kann man das vergessen.
 

PartyBoy69

Komplett-PC-Käufer(in)
Was genau meinst Du mit automatisch?
Das Einstellen von bestimmten Taktraten beim Start von Windows oder das Einstellen lastabhängiger Taktraten (OC bei der Anwendung von 3D-Programmen) geht z.B. mit RivaTuner.

Naja, soweit ich mich recht erinnere, konnte man doch mit coolbits im nvidiatreiber automatisch nach den besten taktraten suchen lassen. bei ati konnte man ja auch im treiber die overdrivefunktion ausführen, bei der automatisch bis zur höchsten stabilen taktrate getestet wurde
 

jetztaber

PCGHX-HWbot-Member (m/w)
Coolbits enthält Registryeinträge, ist also eine *.reg Datei, die in die Registry eingetragen werden und zusätzliche Funktionen freischalten und irgendwelche Verhaltensweisen des Treibers verändern. Aber eben alles direkt durch Registryeinträge.

Ich persönlich unterscheide zwischen zwei Arten OC. Die erste ist, einen Bench mit dem bestmöglichen Ergebnis zu absolvieren, bevor das System instabil wird, die zweite ist ein stabiles System mit höchstmöglichen Taktraten im Dauerbetrieb.

Ich hab mal innerhalb dieser persönlichen Vorgaben das ATI-Tool eingesetzt und Takte automatisch ermittelt. Die Ergebnisse waren unterschiedlich und haben keinen der beiden Ansprüche erfüllt. Deswegen bin ich ein Freund des manuellen Übertaktens. Die Ergebnisse sind hier wiederholbar und zuverlässig, allerdings auch etwas mühsam. Aber probiers selbst. ;)

Mit WaKü geht meine XFX8800 GTX 680/1030 für Benchmarks (3DMark06 usw.), für Dauerlast bei 3D-Spielen nehme ich 670/1025 ansonsten läuft sie underclocked für den regulären Betrieb (alle anderen Anwendungen) mit 288/675 (völlig ausreichend und nicht spürbar).

Am besten schaust Du mal aufmerksam über die Benchmarksektion für 3DMark06 in diesem Forum. Da siehst Du die unterschiedlichsten Einstellungen für eine 8800 GTX. Deswegen überschlagen sich hier die Antworten auch nicht.
 
Zuletzt bearbeitet:

Nuddl007

Komplett-PC-Aufrüster(in)
hallo

Genau der richtige beitrag, ich will das bios meiner gtx flaschen hat da jemand erfahrungen und kann tools nennen die man benötigt?

Danke im vorraus Nuddl
 

jetztaber

PCGHX-HWbot-Member (m/w)
Verrat mir was Du flashen willst und ich 'verrate' Dir einen Link und werde noch ein paar Bedenken los :nicken:

*edit* Flashen ist nicht ohne und Übertakten kann man auch mit Software. Ich kenne beides...
 
Zuletzt bearbeitet:

DF_zwo

PC-Selbstbauer(in)
Man kann auch ein pseudo-flash durchführen. Dazu nimmt man Riva Tuner und stellt das NVStrap auf das was man will, in deinem Fall 8800 Ultra. Allerdings sollten die Ultra Taktraten vorher wirklich ausgiebig getestet werden. Ich würde sagen mindestens 10 3D Mark 06 Durchläufe, dann kannst du ganz sicher sein. Wenn es nicht klappt, einfach in den abgesicherten Modus, und alles wieder umstellen, oder den Riva Tuner Ordner löschen
 

d00mfreak

Inaktiver Account von PCGH_Reinhard
Alternativ kann man mit Nibitor auch das Originalbios modifizieren, nachdem man die höchsten Taktraten, mit denen die eigene Graka stabil läuft, ermittlelt hat.

Allerdings würde ich aufs Flashen verzichten, da, falls die Graka abrauchen sollte, und man die Garantie einlösen will, man ziemlich schlecht dastehen würde, sollte nachgewiesen werden, dass man ein manipuliertes Bios verwendet hat.
Softwareübertaktung dürfte da weit schwieriger nachzuweisen sein. *Vermutung meinerseits*
 

DF_zwo

PC-Selbstbauer(in)
sollte nachgewiesen werden, dass man ein manipuliertes Bios verwendet hat
Dazu muss ich aus Erfahrung sagen, dass die meisten Hersteller die eingeschickten Karten garnicht erst testen - zuviel Zeitaufwand = zu hohe Kosten. Die tauschen meistens gleich um oder aus...wie man es nennen mag.

Ein Beispiel was der Wahrheit entspricht:

7900 GT - 169° - mein Fehler - alles kaputt. Dann habe ich den Stock Kühler wieder auf die Grafikkarte montiert und sogar eine andere Wärmeleitpaste verwendet - eine Silberleit, statt Silikonpaste. Das hätte schon auffallen sollen. Aber nein, das BIOS war sogar geflashed und mein Nickname, war im Bootscreen des Grafikkartenbios zu sehen (wenn der Rechner hochfährt). Ich habe raschest Ersatz bekommen !

Meine Schlussfolgerung:

Der Hersteller liest meine Fehlerbeschreibung und denkt: aha Karte kaputt, mögliche Reperaturkosten inkl. Testaufwand (kosten) = zuviel, Karte wird einfach getauscht und die alte geht in den Müll = mögliche Kostenersparnis.
 

quaddiGTX

Kabelverknoter(in)
Guten Tag!
ich wollte mal fragen wie weit ich meine Grafikkarte so in etwa übertackten kann.Hat jemand oc-erfahrungen mt der graka gemacht?ich freue mich auf eure antworten=)

MFG
chu


Also bei mir taktet sie (Ausgabe 10/07) mit 630/1040MHz. Dieser Wert steht in der Tabelle im grünen möglichen Bereich. Die läuft bei mir dann mit diesen Einstellungen völlig problemlos. Tunen kann man die Karte entweder mit nvidia´s riva tuner oder mit dem systool (aber nicht das systool tweaking tool für XP)
 

zappels

Komplett-PC-Käufer(in)
hmm also mein Problem, das ich nicht so wirklich testen kann wie hoch ich komme. ich habe den riva tuner und das ati tool installiert. stelle meine gtx auf 650mhz und lasse mit ati tool nach artefakten suchen. da der button "finde max Core" und der für den Speicher nicht funktionieren scheint.... jedenfalls zeigt er bei meinem 64 Bit Vista nur in der Taskleiste Werte an. Die sich nicht verändern. auch nach 30 Minuten nicht... habe ich dann den Takt der gtx mal damit laufen lassen... es ging circa 15 Minuten gut... er fand keine artefakte, aber plötzlich ging der monitor ohne signal aus. nach neustart alles wieder okay... weiß nicht was das sein soll. hat jemand ne ahnung? 169.12 ist drauf und läuft soweit... nur bei crysis macht die karte eben schlapp. in der letzte PCGH war von High End System mit 1280x768 + 4AA + 8AF die rede.... habe ich keine Chance... System bricht völlig ein. Netzteil hat 600 Watt und ist von beQuiet. Mein Quad 6600 läuft stable auf 3GHz. Ideen? :wall:
 

jetztaber

PCGHX-HWbot-Member (m/w)

Hallo und herzlich willkommen.

Ideen: ne Menge.

AtiTool und RT parallel installiert funktioniert nicht, da beide die Eintragungen in der Registry ändern. Ist besonders lustig beim Autostart, das eine überschreibt ggf. die Werte des anderen :devil:

So nett der Artefaktetest ist, Du stellst richtig fest: Er bringt nichts. Also AtiTool deinstallieren. In Deiner Situation (also evtl. 'wilde' Eintragungen in der Registry) gleich auch RT deinstallieren und den Forceware-Treiber. Registry mit einem Cleaner säubern, so weit möglich und auch gleich die im Programme-Verzeichnis vorhandenen Ordner von AtiTool und RT löschen. Neustarts nicht vergessen. Deine Probleme kommen daher, dass Deine Karte nach einer gewissen Zeit in der Summe der Erwärmung zu heiß wird und deswegen abschaltet.

Forceware neu installieren. Neu starten, RivaTuner installieren, neu starten.

Mit RT stellt man dann den gewünschten Takt ein. Und zwar sucht man die Obergrenze immer nur für einen gewünschten Takt (Core, Memory, Shader) der Rest bleibt dabei auf Standard.

Dabei wird z.B. erst mal nur die Obergrenze des Coretaktes gesucht. Also diesen Regler nach rechts und übernehmen. Dann testen. Ich nehme 3DMark06 dazu her. Die Grenze ist erreicht, wenn der 3DMark06 abstürzt. Etwas weniger ist hier meine Obergrenze.

Dann Coretakt auf Standard und das gleiche Spiel mit dem Memorytakt, dabei aber den Shadertakt gekoppelt lassen. So habe ich meine Obergrenze für den Memorytakt.

Gleiches Spiel für den jetzt entkoppelten Shadertakt und so habe ich dessen Obergrenze.

Anhand der Obergrenzen lege ich jetzt meine Kombination aus Core- und Memorytakt fest, am besten den Shadertakt mit dem Memorytakt dabei gekoppelt lassen. Wenn die Kombination den 3DMark06 ohne Absturz absolviert, hast Du schon recht gute Voraussetzungen für stabile Grafik bei Spielen.
Den Shadertakt verändern bringt was unter bestimmten Umständen, also speziellen Spielen etc. Daher ist die Vorgabe von nvidia eigentlich recht gut und kann so gut wie überall angewendet werden. Gedanken über eine Optimierung kann man sich machen, wenn man sehr viel Zeit übrig hat...

Du kühlst mit Luft: Auf die Temperaturen achten!

Du kannst Dich ja anhand der Benchmarkergebnisse für 3DMark06 hier im Forum schon mal informieren, wo Dein System in etwa einzuordnen ist. Und etwas unterhalb der Werte anfangen zu testen.
 
Zuletzt bearbeitet:

Jack Carver

PC-Selbstbauer(in)
@jetztaber

Du sagst die Grenze ist erreicht, wenn der 3D Mark abstürzt. Ich denke die ist doch bereits erreicht, wenn man sichtbar in nem Test Artefakte erkennt, die mit nem niedrigeren Takt nicht da sind.

Bei mir sind zB im Test Firefly Forest als erstes Artefakte erkennbar, auch wenn im ersten Test noch keine sichtbar sind.
Kann sein, dass die Karte (88 Ultra) nach dem ersten Test ne best Temp erreicht hat, dass sich das dann im zweiten auswirkt.

Core-Takt geht bei mir bis ca 646 gut, dann beginnt so langsam die Artefaktbildung. Lass sie also bei 640 MHz laufen.

Grüße
 

jetztaber

PCGHX-HWbot-Member (m/w)
Du liegst vollkommen richtig mit Deiner Aussage bezüglich Artefakten und/oder kumulierter Temperatur.

Ich habe das nicht explizit geschrieben, aber die Artefaktdarstellung im Fensterchen von AtiTool und in einem Full-Screen unterscheiden sich gewaltig, da die Karte ganz anders skalieren muss. Das bedeutet, dass sie bei einer Full-Screen Darstellung mehr Rechenarbeit leistet und daher schneller eine höhere Betriebstemperatur erreicht. Insofern sind Artefakte im Fullscreen ein untrügliches Zeichen für beginnende Überlastung. Wer Glück hat sieht die noch, bevor der Rechner abschaltet oder der Bildschirm schwarz wird. Also ich habe noch keine Artefakt-Bildung bei mir beobachten können bzw. gesehen, bevor der Monitor schwarz wird. Insofern habe ich den Absturz sozusagen als ultimativen Grenzwert genommen. Aber natürlich ist die Artefaktbildung ein wesentliches Kriterium, da sie vor dem Absturz erfolgen sollte. Und meines Erachtens ist Artefaktbildung ein Hinweis auf Überlastung des Speichers und nicht der GPU. Findet man recht gut raus, wenn man die Grenzen so auslotet wie oben beschrieben.

Der Firefly Forest ist genau der Knackpunkt beim 3DMark06 ;)

Meine GTX absolviert z.B. einen 3DMark06 mit 680/1030. Zum Gamen muß ich runter auf 675/1025 sonst gibts einen plötzlichen Stillstand irgendwann (sie ist wassergekühlt). Insofern, von hier aus beurteilt, passt es bei Dir sehr gut.

edit (09.12.2007):
Artefaktbildung geht auf zu hohen Kerntakt zurück und nicht auf zu hohen Memorytakt. Sorry für diesen Fehler etwas weiter oben im Text!
 
Zuletzt bearbeitet:

zappels

Komplett-PC-Käufer(in)
Okay also ich mache das mal so wie Du beschrieben hast... die Temps und das übertakten habe ich so gemacht. Temps lagen bei keinem Zeitpunkt bei über 85°C. und der Takt verlangsamt sich ja erst bei 100° wenn ich mich recht erinnere. ABer ich machs noch mal so und poste es hier. Danke für die Zeit und die ausführlich Beschreibung.
 

jetztaber

PCGHX-HWbot-Member (m/w)
Wenn Du mit RT oder sonstwas Probleme dabei hast, schreib was dazu hier rein. Und eine kleine PM, so dass ich nicht versäume zu antworten ;)
 

Jack Carver

PC-Selbstbauer(in)
@jetztaber

Nochmals getestet:
Die Artefaktbildung resulltiert bei mit allein aus ner Erhöhung des GPU-Taktes. Die hab ich beobachtet, als ich den max. GPU-Takt ausgetestet hab. Speichertakt @ default dabei. Hab das mit Ntune von Nvidia gemacht. Was allerdings komisch ist ist die Tatsache, dass Ntune im Monitor ne GPU-Temp von 79 Grad angezeigt hat, als ich den 3D Mark nach der ersten Artefaktbildung abgebrochen hab.
Nicht grade ne hohe Temp denke ich mal. Wieso entstehen da diese Artefakte bereits???
Hab zuerst auf locker 90 Grad geschätzt. Ist etwa Ntune so ungenau??
 

Santury

Komplett-PC-Käufer(in)
Hi @ all...ja das mit dem OC bringt sehr seltsame Dinge hervor. Bei mir funktioniert meine GTX einwandfrei unter allen Spielen in XP SP2 und Vista 64 Bit Home Premium ja bis auf wenn ich Crysis im DX10 Modus starte, dann krascht sie sofort nach erreichen des Menüs zusammen und der ganze Bildschirm zeigt nur noch Artefakte. Ich hab sie nicht mal geOCed, es war schon bei der Demo so...im DX10 crash..wenn ich es unter DX9 spiele ( im Vista und XP ) absolut keine Probleme...das selbe Phenomän tritt auch bei der Demo von Universe At War auf und das unter XP...also kein reines Vistaproblem..kann es sein das ein bestimmtes Bauteil kaputt ist ? Alle anderen Spiele laufen einwandfrei !?!?
greez Santury
 

jetztaber

PCGHX-HWbot-Member (m/w)
@Jack Carver

Wie kühlst Du und bei welcher Kerntaktrate passiert das?

@Santury

Bitte auch Temp, Kühlungsart und Taktrate der GPU hierher schreiben. Von Dir bräuchte ich zusätzlich Angaben zu Prozessortakt, Prozessorspannung, Ramtakt und -spannung und Latenzen (sorry, ich vermute hier was anderes, da alles läuft und nur ausgerechnet diese Spiele abbrechen). Dazu CPU-Z benutzen.

Die Screenshots des aktiven Fensters erstellst Du mit 'Alt' + 'Druck' und kopierst das in eine Bildverarbeitung Deiner Wahl um es als JPG abzuspeichern. Dann unter zusätzliche Einstellungen 'Anhänge verwalten' hochladen. Es reicht, wenn sie unten dran hängen, sie brauchen nicht im Textfeld untergebracht werden ;)
 

Jack Carver

PC-Selbstbauer(in)
Gekühlt wird mit Luft. Artefakte beginnen so bei ca 645 MHz GPU-Takt. Bei 640 läuft sie ohne Probleme. Da sind auch keine Artefakte im 3D Mark sichtbar.
Wenn ich bei beginnender Artefaktbildung den 3D Mark abbreche und die GPU-Temp im Ntune-Monitor ansehe, zeigt die ca 79 Grad. Das hat mich etwas gewundert, da ich eigentl von mehr ausging.
Kann nat sein, dass Ntune da etwas ungenau anzeigt und die tasächliche Temp höher ist.
 

dereinzug

Komplett-PC-Käufer(in)
Hallo,

wenn ich meine 8800 GTX nur in Stufen übertakten kann, liegt das dann am verwendeten Treiber (169.02) oder ist das generell so?
Nach knapp 620 MHz gehts gleich auf 648 auch wenn ich zb 630 einstelle.
Der nächste einstellbare Takt liegt dann bereits bei 675 MHz.
Ich frag weil ich hier wieder von 630 MHz lese die ich nicht einstellen kann.
Zum Glück sind die 648 MHz stabil möglich. Den Shader hab ich auf ca 1600 Mhz gestellt.
Der 3DMark06 (1920x1200, 4xAA, 16xAF) lief ohne Probleme knapp 24 Stunden.
Dank Wakü stieg die Temperatur nie über 63 °C. Danach hab ich noch 2 Stunden Crysis dran gehängt. Die Temperatur war noch 1-2 °C höher. Absturz gabs auch keinen. Danach hab ich die Lüftereinstellung vom Radiator geändert und nochmal den Crysis-Benchmark gestartet. Nun ging die Temperatur bis auf 65 °C. Ja eigentlich nicht viel. Nach einer 3/4 Stunde gabs dann aber einen Freeze. Jetzt bin ich am rätseln worans liegt.
Sind die 648 MHz doch zu viel? Kommts durch die stärkere Takterhöhung der Shader vielleicht lokal zu zu hohen Temperaturen?
Einen neuen Langzeittest mit der ursprünglichen Einschalttemperatur für den Radiator-Lüfter konnte ich noch nicht starten.

Ich hab den Rivatunner 2.06 zum Übertakten benutzt.

Ciao Tom
 
Zuletzt bearbeitet:

jetztaber

PCGHX-HWbot-Member (m/w)
Hallo,

wenn ich meine 8800 GTX nur in Stufen übertakten kann, liegt das dann am verwendeten Treiber (169.02) oder ist das generell so?

Ja, das ist generell so. Obwohl die Takteinstellung in Schritten von 1 Mhz vorgenommen werden kann, ist im Bios der Karte eine bestimmte Schrittweite dafür hinterlegt. Da wird dann entsprechend auf- oder abgerundet. Die Schrittweite kenne ich jetztaber nicht genau (irgendwas um die 27 Mhz).

Nach knapp 620 MHz gehts gleich auf 648 auch wenn ich zb 630 einstelle.
Der nächste einstellbare Takt liegt dann bereits bei 675 MHz.
Ich frag weil ich hier wieder von 630 MHz lese die ich nicht einstellen kann.
Zum Glück sind die 648 MHz stabil möglich. Den Shader hab ich auf ca 1600 Mhz gestellt.

Siehe oben. Wir sprechen meistens von den softwareseitig eingestellten Werten und nicht von den effektiven. Naja, kein Beinbruch.

Der 3DMark06 (1920x1200, 4xAA, 16xAF) lief ohne Probleme knapp 24 Stunden.
Dank Wakü stieg die Temperatur nie über 63 °C. Danach hab ich noch 2 Stunden Crysis dran gehängt. Die Temperatur war noch 1-2 °C höher. Absturz gabs auch keinen. Danach hab ich die Lüftereinstellung vom Radiator geändert und nochmal den Crysis-Benchmark gestartet. Nun ging die Temperatur bis auf 65 °C. Ja eigentlich nicht viel. Nach einer 3/4 Stunde gabs dann aber einen Freeze. Jetzt bin ich am rätseln worans liegt.
Sind die 648 MHz doch zu viel? Kommts durch die stärkere Takterhöhung der Shader vielleicht lokal zu zu hohen Temperaturen?
Einen neuen Langzeittest mit der ursprünglichen Einschalttemperatur für den Radiator-Lüfter konnte ich noch nicht starten.

Das sind beides sehr gute Werte (Temps und Takt). Sozusagen an der oberen Grenze. Ich selbst hab bei Wakü max. 69°C und einen Coretakt von 680 Mhz für Benchmarks, im Spielbetrieb 670 Mhz. Wobei meine GPU ein sehr gutes Exemplar zu sein scheint, aber das wird durch den miserablen Speicher wieder aufgehoben < 1030 Mhz.

Wenn es nicht funktioniert, kann man eigentlich nur einen Schritt nach unten gehen, also die nächst niedrigere effektive Taktrate(n) einstellen. Sicherlich spielt die kumulierte Temperatur eine Rolle. Dazu kommt noch, dass Nvidia sich derzeit mit der Veröffentlichung von Treibern für Crysis überschlägt. Da wird zwar heftig rumgefixt, aber ob das dann alles so toll ist...

Ich hab den Rivatunner 2.06 zum Übertakten benutzt.

Erste Wahl, meiner Meinung nach ;)
 

jetztaber

PCGHX-HWbot-Member (m/w)
Gekühlt wird mit Luft. Artefakte beginnen so bei ca 645 MHz GPU-Takt. Bei 640 läuft sie ohne Probleme. Da sind auch keine Artefakte im 3D Mark sichtbar.
Wenn ich bei beginnender Artefaktbildung den 3D Mark abbreche und die GPU-Temp im Ntune-Monitor ansehe, zeigt die ca 79 Grad. Das hat mich etwas gewundert, da ich eigentl von mehr ausging.
Kann nat sein, dass Ntune da etwas ungenau anzeigt und die tasächliche Temp höher ist.

Auf mich wirken die Temperaturen zusammen mit den erreichten Übertaktungswerten normal gut. Im Bios der Karte wird eine Abweichung des Temperaturwertes von 7°C angegeben, sie sollte also eher kühler sein, als zu heiss.

Undim Thread über diesem steht in etwa das gleiche. Kleine Abweichungen sind ganz allgemein mit Unterschieden in der Gehäusegrösse, -belüftung usw. erklärbar.

Naja, irgendwann hat jede Karte ihre Grenzen erreicht ;)
 

Jack Carver

PC-Selbstbauer(in)
Auf mich wirken die Temperaturen zusammen mit den erreichten Übertaktungswerten normal gut. Im Bios der Karte wird eine Abweichung des Temperaturwertes von 7°C angegeben, sie sollte also eher kühler sein, als zu heiss.

Undim Thread über diesem steht in etwa das gleiche. Kleine Abweichungen sind ganz allgemein mit Unterschieden in der Gehäusegrösse, -belüftung usw. erklärbar.

Naja, irgendwann hat jede Karte ihre Grenzen erreicht ;)

Ja da kann man nix machen. Das würde aber bedeuten, dass in dem Fall ne WaKü auch nix bringt oder?? Also rein theoretisch.
 

jetztaber

PCGHX-HWbot-Member (m/w)
Ganz allgemein erreichen wassergekühlte Systeme höhere Taktraten, weil die Wärme schneller abtransportiert wird. Allerdings ist der Lüfter einer 8800 GTX auch schon recht effizient.

Das Spiel pflanzt sich ja nach oben fort. Kompressorkühlung bringt noch mehr, dann eine mehrstufige Kompressorkühlung, ja dann toppst Du das Ganze noch mit flüssigem Stickstoff und Trockeneis.

Für eine gute Wasserkühlung legst Du schon mal einiges an Geld hin. Ob der Nutzen den Aufwand wert ist, muss jeder selbst entscheiden. Aber eines ist ganz klar, eine Wasserkühlung sorgt für erheblich mehr Ruhe!
 

Whoosaa

BIOS-Overclocker(in)
Moin Leute,

also bei mir isses so, bei meinem Dell *hoho* war ne 8800 GTX dabei, immer noch mit dem ganz normalen Standard-Kühler. Das ist aber eigentlich nicht so wichtig, was ich wissen möchte ist, welche Temps die Graka - bezogen auf Everest und Rivatuner - mitmacht.
Das heißt, es gibt:

- GPU Umgebung -> Ambient Temperature (Rivatuner)
- GPU Diode
- Grafikprozessor (GPU) -> Core Temperature

Ich würde jetzt gerne Werte wissen, bei denen die Graka problemlos ohne großen Verlust an Lebensdauer läuft. (Ich find sie nämlich nirgendswo.)

Danke im Voraus

Edit: Was mich auch noch interessieren würde, ist es schlimm für den Kühler wenn er die ganze Zeit auf 80% läuft?
 
Zuletzt bearbeitet:

Mantiso90

Software-Overclocker(in)
Laut nvidia gibts erst bei einer GPU temp von 100+ °C Probleme. Man solte es aber vermeiden dauerhaft über 90 ° C zu haben, da es teilweise ziemlich die Lebenszeit der Graaka reduziert.

Die GPU umgebung sollte immer unter 75 ° C liegen, da es ab dieser Temperatur zur problemen kommen kann. Beim Speicher sollte es auch nicht unbedingt über 75 ° C sein.
 

tarnari

PCGH-Community-Veteran(in)
Was mich etwas irritiert, alle sprechen davon, dass sich der Takt zwar feinstufig einstellen lässt, er aber nur grobstufig übernommen wird. Leuchtet mir ja auch grundsätzlich ein, da ja wohl meines Wissens mit Multiplikatoren gearbeitet wird. Die lassen sich ja wohl auch über den RivaTuner ändern.
Wenn ich nun aber den Takt meiner GPU ändere (8800GT) auf 700/1728/1000, bekomme ich im RivaTuner HM auch diese Werte angezeigt. Okay, ganz genau sind es 702/1728/999. Aber das ist ja trotzdem kein großer Sprung. Raff ich irgendetwas nicht oder bin ich zufällig mit diesen Werten genau auf einer dieser Stufen. Was ich lustig fänd, da ich alles entkoppelt, für sich einzeln eingestellt habe...
 

Tommy_Lee

Freizeitschrauber(in)
Hm also ich verstehe dein Text nicht ganz, ist noch etwas früh. Aber mit Riva Tuner habe ich auch nur Stufen, die kriegst du ja so zu sagen durch Testen raus.

Dann mit 3dMark06 und Game Testen.

Temps kriegst du ja auch angezeigt und meine kommt ohne Lüfter hochdrehen aus. Bin Max bei 80 Grad mit Maximal OC.

mfg

Tom
 

tarnari

PCGH-Community-Veteran(in)
Stimmt ist früh. Vielleicht denk ich noch zu kompliziert ;)
Okay, also anders. Weiter vorne im Thread steht öfters, äh meinetwegen: "Hab 630mhz eingestellt , RivaTuner sagt mir aber 648mhz".
So oder so ähnlich schreiben hier ja einige. Und der Grund hier für wird ja auch weiter vorne genannt.
Bei mir ist das aber anscheinend(!) nicht so...
Ich habe mit dem RivaTuner 700GPU/1728Shader/1000RAM eingestellt. Und genau diese Taktungen liest mir RivaTuner auch aus. Ich häng mal n screen an.
Das ist in diesem Sinne kein Problem! Irritiert mich halt nur...
 

Tommy_Lee

Freizeitschrauber(in)
Jop also das habe ich soweit auch verstanden, nur er macht es ja nicht ^^.

Also 700 sind nich gleichzeitig 702 :wall: obwoll das manchman nice wäre.

mfg

Tom
 
Oben Unten