NVIDIA Ampere Laberthread

klingt ja erstmal ganz gut



wird aber sicherlich recht schnell nen workaround geben




und btw Kimi hatte mal wieder Recht
 
Zuletzt bearbeitet:
Wieso? Was zeigt er denn an?
Ich habe ja auch eine strix, meine Werte scheinen plausibel
Bei zb 30°C Wasser nur 29°C GPU @ idle
Bei der 2080Ti waren es 4-5°C mehr @ idle

Sieht unter Last aber auch nicht anders aus
Die Temperatur ist viel zu nah an der Wassertemperatur

Am Sensor von Wasser kann es nicht liegen,
denn sonst müssten 3 Geräte bei mir falsch gehen (inkl. einem teueren Präzisionsthermometer)
Meiner zeigt nur im Idle totalen Quatsch an. Da bin ich immer 2 Grad unter Wassertemperatur und dementsprechend bei Systemstart sogar unter Raumtemperatur :D
Unter Last passt es dann aber wieder.
Wie bei mir...
Möglich das ein Offset angewendet wird für die Telemetrie oder aber die Werte von HwInfo nicht absolut korrekt interpretiert werden derzeit. Der Wert scheint mir immer noch etwas niedrig zu sein.
Hatte ich in HWluxx auch mal geschrieben. Hat mir aber keiner geglaubt :schief:


btw:
Habe noch eine 3090 FTW3 Ultra, die gerne auch mal 80°C anzeigt
Will garnicht wissen, wie hoch da Hotspot ist
 
Zuletzt bearbeitet:
Die neue Hwinfo64 Beta mit dem Hotspot Wert ist da. Sieht bei mir aber ganz gut aus würde ich sagen.
Anhang anzeigen 1354830
Wie bitte hast du das gemacht mit der Anzeige bei langen Wörtern?
Wenn ich, wie in deinem Fall „GPU Memory Junction Temperature“ angebe,
haben alle Abkürzungen (zb „Wasser“) ein ewig langes, leeres Feld, bis die Ziffern kommen. Und die stehen genau unter den Ziffern von „GPU Memory Junction Temperature“. Maßgeblich ist bei mir der längste Text. Verstehst du, was ich meine?

Daher verstehe ich nicht, wie du das gemacht hast, dass bei dir Text und gleich danach die Ziffern erscheinen
Naja ich mein die Werte sind ja durchaus plausibel. Der CHip hat viel Fläche zum Abgeben, da ist ein Delta von 15 Grad auf jeden Fall schlüssig. Andereseits sind die Chips auch recht schepp die Samsung da produziert.
„Schepp“ also schief?
Dass ich eine Temperatur unterhalb von Raumtemperatur und Wasser angezeigt bekomme, hat damit wohl nichts zu tun. Wäre sie 4-5°C darüber bei idle, wäre das plausibel

EVGA ist glaube, einer der wenigen Hersteller, der ohne „Minus-Offset auskommt
Man kann bei anderen Herstellern auch Marketing vermuten. „Kühlere“ Karten (obwohl sie es in Wirklichkeit vielleicht nicht ist) verkaufen sich besser. Aber nur eine Vermutung
 
Zuletzt bearbeitet:
EVGA ist glaube, einer der wenigen Hersteller, der ohne „Minus-Offset auskommt
Man kann bei anderen Herstellern auch Marketing vermuten. „Kühlere“ Karten (obwohl sie es in Wirklichkeit vielleicht nicht ist) verkaufen sich besser. Aber nur eine Vermutung
also meine Werte wirken durchaus plausibel, wobei schon zimlich kühl muss man Sagen. Aber dachte eigentlich es könnte sogar Stimmen, weil der Chip bietet ja schon zimlich viel fläche.

Im Idle so 1-3 grad über Wasser Temperatur, unter Max Last bei 480 Watt so 20 Grad über Wassertemperatur

kontrollieren ob und wie genau das Stimmt kann mans natürlich nicht
 
Falls es noch andere gibt, welche zb, in Google Chrome Treiber Probleme hatten...
Nvidia hat einen Hotfix Driver 461.51 veröffentlicht, welcher unter anderem genau dieses Problem anging.

Ich war ja einer der unglücklichen, mit immer Random Treiber abstürzen. ich habe den Treiber nun seit 2 Tagen am laufen, und seither keine Abstürze mehr. Es betrifft bei mir auch andere Anwendungen wie zb. Dofus, oder das insta 360 Studio. Da hatte ich immer in unregelmässigen Abständen so treiber Abstürze.
Bis jetzt läuft nun alles wie es sollte!

Ich will es mal nicht verschreien evtl. ists auch Zufall, ich hatte teils Wochenlang keine Abstürze.

Aber wen jemand auch so Probleme hat, empfehle ich einmal den neuen Treiber, sieht bis jetzt echt vielversprechend aus!
 
Wie haben sich die Abstürze bemerkbar gemacht? Lief WIN10 da noch?
Ja win 10 lief noch.

Sie machten sich bemerkbar in dem meine Monitore immer so 2-3 sekunden kurz schwarz wurden.
Manchmal stürzte auch noch die Google chrome app dabei mit ab (nicht immer)

In der Ereignissanzeige gabs dann immer die Aufzeichnung "der Treiber von nvdll...(irgendwas) reagiert nicht mehr und wurde neu gestartet"

Deshalb bin ich ja sicher, dass das Problem von der GPU resp. Vom.GPU Treiber kommt (kam)
 
Brachte es eine Besserung, wenn du die Hardwarebeschleunigung deaktiviert hast? Manche Browser haben da Probleme
Ja brachte es... und war auch mein "Workaround" bis vorgestern.

Aber ganz ehrlich ich kaufe doch nicht nen 5000 euro pc mit neuster Hardware, und muss dann überall die Hardware beschleunigubg deaktivieren?
Ich bin froh hat Nvidia nun entlich das Problem behoben. Und hoffe das ich zukünftig die HW beschleunigung wieder nutzen kann.
Bis jetzt läufts Fehlerfrei
 
Möglich das ein Offset angewendet wird für die Telemetrie oder aber die Werte von HwInfo nicht absolut korrekt interpretiert werden derzeit. Der Wert scheint mir immer noch etwas niedrig zu sein.
Temperatursensoren haben einen Arbeitsbereich, in dem sie sehr genau sind. Bei den genannten Komponenten wird dieser sicherlich auf Höhe der kritischen Temperaturen sein, die im normalen Betrieb auftreten. Daher ließen sich die Ungenauigkeiten bei Raumtemperatur erklären.
 
Zuletzt bearbeitet:
Temperatursensoren haben einen Arbeitsbereich, in dem sie sehr genau sind. Bei den genannten Komponenten, wird dieser sicherlich auf Höhe der kritischen Temperaturen sein, die im normalen Betrieb auftreten. Daher ließen sich die Ungenauigkeiten bei Raumtemperatur erklären.
Ja klar. Ich will ja nicht sagen das es anders ist, aber manchmal verwenden die Hersteller Offsets damit die Steuerungen filigraner agieren oder aber auch einfach um Werte etwas schöner darzustellen. Grundsätzlich sind die Temperaturen aber weitestgehend schlüssig.
 
Temperatursensoren haben einen Arbeitsbereich, in dem sie sehr genau sind. Bei den genannten Komponenten wird dieser sicherlich auf Höhe der kritischen Temperaturen sein, die im normalen Betrieb auftreten. Daher ließen sich die Ungenauigkeiten bei Raumtemperatur erklären.
Im Prinzip hast du ja Recht, aber mein Sensor zeigen völligen Blödsinn an. Auch im üblichen Arbeitsbereich
Ich halte mich einfach an Hotspot und gut ist...

Als die Strix noch auf Luft lief, hatte ich schön einen Verdacht, dass der Sensor zu wenig anzeigt. Seit Umbau auf Wasser hab ich die Bestätigung, dass die normaler Tempanzeige Blödsinn anzeigt
Ja klar. Ich will ja nicht sagen das es anders ist, aber manchmal verwenden die Hersteller Offsets damit die Steuerungen filigraner agieren oder aber auch einfach um Werte etwas schöner darzustellen. Grundsätzlich sind die Temperaturen aber weitestgehend schlüssig.
Das war auch mein Gedanke...
Hab auch meinen Gedanken zum Namen „Ampere“ (erzeugt viel Abwärme) :D
Würde mich nicht wundern, wenn der Name bewusst so gewählt wurde

Auf jeden Fall werden die Ampere-User im Hochsommer ihren „Spaß“ haben
 
Im Prinzip hast du ja Recht, aber mein Sensor zeigen völligen Blödsinn an. Auch im üblichen Arbeitsbereich
Ich halte mich einfach an Hotspot und gut ist...

Als die Strix noch auf Luft lief, hatte ich schön einen Verdacht, dass der Sensor zu wenig anzeigt. Seit Umbau auf Wasser hab ich die Bestätigung, dass die normaler Tempanzeige Blödsinn anzeigt
Wenn das wirklich so krass ist, könnte man deswegen schon mal den Asus Support bemühen.
 
Wie warm wird die 3080 eigentlich so? Meine Asus 1080 Turbo ist auch eher eine kleine Heizung.
Kommt stark aufs Modell, Kühler, Power Limit und Auslastung an.

In sachen "Heizwirkung" ist vorallem die Energieaufnahme entscheidend...
Da werden @stock 350 watt zu buche schlagen... eine Asus strix geht bis 480 Watt...

Die Speicherblöcke werden dabei bis 110°C warm (dann drosseln sie)

Die chips varieren denke ich um 50 bis 80°C je nach Modell
 
Seit gestern "schürfe" ich bei "2miners"...
Kaum läuft "gminer", schon hat der RAM mehr als 90°C (bis zu 100°C):D

@ stock mit Luft laufen zu lassen und quasi fast unmöglich, weil "gminer" ohne Limit durchgehend 480W aus der Karte zieht :wow:
Habe sie auf 280W PL limitiert, bei avg 980MHz GPU und 1.313MHz RAM (hat damit immer noch 90°C)
GPU liegt im Moment bei 52°C (Hotspot 64°C)
 
Seit gestern "schürfe" ich bei "2miners"...
Kaum läuft "gminer", schon hat der RAM mehr als 90°C (bis zu 100°C):D

@ stock mit Luft laufen zu lassen und quasi fast unmöglich, weil "gminer" ohne Limit durchgehend 480W aus der Karte zieht :wow:
Habe sie auf 280W PL limitiert, bei avg 980MHz GPU und 1.313MHz RAM (hat damit immer noch 90°C)
GPU liegt im Moment bei 52°C (Hotspot 64°C)
Mal ernsthaft, lohnt sich das für dich wirklich bei den hohen Stromkosten in Deutschland?
 
Zurück