max Temp der GPU

Kusarr

Software-Overclocker(in)
hallo,

wollte mal fragen wie warm eine GPU maximal werden darf.

Weil mein SLI Gespann wird unter Volllast bis zu 80°C warm (die untere ca.73°C, also etwas weniger warm).
GPU's sind nicht übertaktet.

Sind die Temps in Ordnung?

System steht in der Signatur.
 
uff das freut mich =)

freu mich schon aufn Sommer ... oje ^^

Danke schön für die Antworten =)
 
80°C ist in meinen augen zu viel im SLI verbund. DIe anderen haben zwar recht damit dass das kein problem für die karten ist, jedoch leidet das silicium schon ab 60°C aufwärst wobei es erst bei knappen 100°C richtig schlimm wird. Heißt im klartext, je kühl die karte je länger die lebensdauer. Sorg dafür das du ggf noch ein oder zwei lüfter einbaust die luft von oben und dazwischen pumpen, damit du, wie du schon sagtest, genug luft für den sommer nach oben mit den temps hast
 
meinem Phantom Gehäuse fehlt noch der große an der Seite und einer oben. Soll ich die noch einbauen?

Der an der Seite könnte jedoch nicht passend aufgrund des CPU-Kühlers.
 
jedoch leidet das silicium schon ab 60°C aufwärst wobei es erst bei knappen 100°C richtig schlimm wird.

Ich habe keine Ahnung wo du den Blödsinn her hast aber du solltest deine Quellen mal überprüfen.

Dem SILIZIUM wären selbst 1000°C relativ egal. Höchstens die metallenen leiterbahnen würden das nicht überleben.
Was die "Alterung" der Chips angeht so ist die Temperatur (für den zugrunde liegenden "Alterungs"-Effekt der Elektromigration) nahezu völlig egal, die Stromdichte (für den User also die anliegende Spannung) ist viel viel wichtiger was das angeht.

Ob deine GPU 40 oder 90°C hat wird nichts daran ändern, dass die GPU 10 Jahre und länger leben wird so lange man die Finger von der Betriebsspannung lässt (10 Jahre sind der oft genannte der angepeilte Zeitraum der Hersteller für die Lebensdauer, und zwar bei üblichen Vollastphasen und den maximalen erlaubten Werten, sprich hier bei 97°C... :-P)

Warum das genau so ist habe ich vor einiger Zeit mal in ausführlicher Form hinterlegt, die Quellen dazu sind öffentlich zugänglich (da Doktorarbeiten glücklicherweise publiziert werden) falls du dich eingehender beschäftigen willst um dieses Unwissen zu beseitigen. ;)

http://extreme.pcgameshardware.de/b...blog-19-oc-du-hast-dochn-atom-am-wandern.html

meinem Phantom Gehäuse fehlt noch der große an der Seite und einer oben. Soll ich die noch einbauen?

Kannst du machen, ist aber weder notwendig noch wird es einen bedeutenden Unterschied machen. ;-)
 
ah oke, vielen Dank. Das erspart mir dann die Arbeit.

die 80°C treten eh bei minimaler Lüftergeschw. auf. Sprich, bei anspruchsvollen games erhöh ich einfach weng die Lüftergeschw., dank KH hör ich die dann trotzdem ned =)

Ne Klimaanlage in mein Zimmer einzubauen wäre wohl ne sinnvollere Investition x)
 
Ich habe keine Ahnung wo du den Blödsinn her hast aber du solltest deine Quellen mal überprüfen.

Dem SILIZIUM wären selbst 1000°C relativ egal. Höchstens die metallenen leiterbahnen würden das nicht überleben.
Was die "Alterung" der Chips angeht so ist die Temperatur (für den zugrunde liegenden "Alterungs"-Effekt der Elektromigration) nahezu völlig egal, die Stromdichte (für den User also die anliegende Spannung) ist viel viel wichtiger was das angeht.

Ob deine GPU 40 oder 90°C hat wird nichts daran ändern, dass die GPU 10 Jahre und länger leben wird so lange man die Finger von der Betriebsspannung lässt (10 Jahre sind der oft genannte der angepeilte Zeitraum der Hersteller für die Lebensdauer, und zwar bei üblichen Vollastphasen und den maximalen erlaubten Werten, sprich hier bei 97°C... :-P)





Kannst du machen, ist aber weder notwendig noch wird es einen bedeutenden Unterschied machen. ;-)

Also meine quelle ist mein chemie-master und ein kumpel der elektrotechik, informatik und systemengenierung studiert und seine promotion darin macht!
die silicium legierung sind auf halbleiter-techik ausgebaut, weisen massive dotierungen der verschiedensten elemente auf und neigen dazu in nm bereich zu "verwackeln/verschwimmen/zerfallen" wenn die temps zu hoch werden. Hängt ganz einfach damit zusammen das man punktuelle für nano-sec mehr als nur 60°C hat.
Halbleitertechnik ist anfällig für jede temp über 100°K.

Quelle: Universität bremen FB 1 (phsyik), FB 2 (Chemie) und FB 3 (informatik)
 
Aha, na dann müssen wir die Informationen doch nur noch richtig zuordnen (was du schreibst stimmt so natürlich). :-)

Ich sprach (bei dem 1000°C Beispiel) nicht von Legierungen sondern von Silizium (wie du es oben auch geschrieben hattest), bei den wirklichen Halbleiterbauteilen hast du natürlich Recht mit den "niedrigen" Temperaturen.
Was auch sicherlich stimmt ist, dass niedrigere Temperaturen besser für die Hardware sind als höhere darüber müssen wir sicher nicht diskutieren.

Es ist nur so, dass die großen Halbleiterhersteller ihre Produkte für eine Lebenserwartung von 10 Jahren oder mehr auslegen und das bei den Umgebungsvariablen die sie eben angeben - im Falle dieser GPU bei 97°C (und einer hier nicht bekannten Spannung um 1v herum).
Wenn du diese GPU bei nur 60°C betreibst hat das höchstens den Effekt, dass sie statt 10 Jahren eben 12 oder 15 überlebt (das genaue Ausmaß kenne ich nicht).

Du hast zwar Recht mit der Aussage, dass Halbleitertechnik prinzipiell anfällig ist für Temperaturen, der Unterschied in der Lebensdauer einer GPU oder CPU ist, ob sie nun bei 50 oder 80°C betrieben wird aber für den Endkunden schlichtweg vernachlässigbar - nicht aber der Unterschied in eventuell geänderten Spannungen: Die GPU mit 0,2v mehr als spezifiziert zu betreiben wird den Chip wesentlich schneller umbringen als die Grafikkarte bei 95°C arbeiten zu lassen (letzteres ist ja auch noch innerhalb der Specs). Das hab ich im übrigen auch bereits ausprobiert (http://extreme.pcgameshardware.de/blogs/incredible-alk/1361-alkis-blog-9-alki-gefahr.html) :)

Dass Temperaturen nahe der spezifizierten Grenze kein Problem für solche Chips darstellen sieht man alleine schon an den hunderttausenden Laptop-CPUs, die jahrelang bei 80-90°C vor sich hin kochen ohne mit der Wimper zu zucken. Was das angeht sind moderne Chips eigentlich relativ robust.
 
Zuletzt bearbeitet:
Jop, dass das die lapis das auf dauer aushalten, wundert mcih sowieso, wengleich ich zugeben muss, das überhitzung bei den meisten lapis das problem, wenngleich hier meist der anwender schuld ist und nciht der hersteller. Und mit den spannungen stimmt. die spannungen sorgen für lokale hochtemps die einzelne leiterbahnen "angreifen" und sehr schnell kaputt machen. Hat in endeffekt aber weniger einfluss auf die gesamt temp.

Es ist nur so, dass die großen Halbleiterhersteller ihre Produkte für eine Lebenserwartung von 10 Jahren oder mehr auslegen und das bei den Umgebungsvariablen die sie eben angeben - im Falle dieser GPU bei 97°C (und einer hier nicht bekannten Spannung um 1v herum).
Wenn du diese GPU bei nur 60°C betreibst hat das höchstens den Effekt, dass sie statt 10 Jahren eben 12 oder 15 überlebt (das genaue Ausmaß kenne ich nicht).

Für vieler käufer in gewerblichen bereich ist die haltbarkeit ein großes thema, erst recht im von mikro prozessoren. Diese müssen lange halten, und dürfen deshalb nicht zu warm werden (beispiel steuerung von luftungsanlagen in gebäuden) damit sie lange halten.

Back to the topic: Wahrscheinlich sind 80°C wirklich nich all zu wild, da sich jeder gamer oder normale desktop anwender sowieso gefühlte alle 5 jahre (spätestens) neu mit der elektronik eindeckt
 
Für vieler käufer in gewerblichen bereich ist die haltbarkeit ein großes thema, erst recht im von mikro prozessoren. Diese müssen lange halten, und dürfen deshalb nicht zu warm werden (beispiel steuerung von luftungsanlagen in gebäuden) damit sie lange halten.
Bei kritischen Anwendungen wird was das angeht auch keine normale Consumer-Hardware verbaut und Systeme oft redundant ausgelegt. Wenns weniger Lebenswichtig ist (wie etwa in Serverracks) reichen auch gut kontrollierte Umgebungsparameter und saubere, zurückhaltende Einstellungen, um Server-CPUs jahrzehntelang rechnen lassen zu können. :)

Wahrscheinlich sind 80°C wirklich nich all zu wild, da sich jeder gamer oder normale desktop anwender sowieso gefühlte alle 5 jahre (spätestens) neu mit der elektronik eindeckt

Das ist schlicht der Hauptgrund. Gerade bei dem Klientel im PCGHX nutzen die wenigsten ihre CPUs oder GPUs länger als ein paar wenige Jahre, nur in seltenen Ausnahmefällen wird hier wohl ein System auftauchen, deren Komponenten an die 10 Jahre heran reichen. Und wenn ohnehin alle 2-3 Jahre die Grafikkarte erneuert wird muss sie auch nicht 10 Jahre halten... und schon hat der geneigte Nerd wieder ein Gewissensberuhigungsargument gefunden, um der aktuellen karte doch noch 50 MHz mehr aufzubürden. :D
 
Zurück