NVIDIA Ampere Laberthread

Das die Temperaturen jetzt auslesbar sind, liegt wohl auch daran das es jetzt einfacher ist, die Werte auszulesen. Wäre das früher möglich gewesen wäre das in HWinfo auch schon gewesen.


Natürlich sollen die Karten nicht kaputtgehen, deswegen betreibt man ja den ganzen Aufwand.
ich könnte mir eher vorstellen, dass man sich dahinter geklemmt hat, weil es evtl. interessant war. diese Temperaturen zu sehen, vorallem bei den 3090 Karten.

Weil Leute basteln Backplate kühler etc. Da wuchs evtl das Bedürfnis diese Temperaturen zu sehen. Mich selbst haben sie ja auch ziemlich interessiert, aus genau diesem Grund.

Aber was haben wir daraus gelernt?

Die Temperaturen sind allesamt sehr hoch, egal ob 3080 (nur einseitig Speicher) oder 3090...
Ebenfalls kann man die Backplate kühlen so viel man will, man gewinnt nichtmal allzu viel.

Trootzdem denke ich, dass auch schon ältere Speicherblöcke sehr heiss wurden, es hat sich nur nie jemand darum geschert!

Wie gesagt, das weis man alles nicht! sind nur spekulationen.

Jedenfalls kann man kein übermässiges sterben von Ampere Speichern feststellen.

Im Unterschid zb. zu Turing, Wo anfangs die Foren gefüllt waren mit "sterbenden" GPU berichten!

siehe zb. hier!

da hat man an den GDDR6 Speichern aussen auch Temperaturen von 84 bis + 90 grad gemessen.
Und ich kann mir durchaus vorstellen, das Die Temperature im innern nochmal gut 10 bis 20 grad höher ausfällt.
Also hatte man auch da evtl. bereits Speicher mit 100°C +

Und wie gesagt... da hat man sehr früh aufs Problem aufmerksam gemacht!

Bei Ampere hört man gar nichts von solchen Problemen!
Die "Probleme" gibts eigentlich nur in den Köpfen, derjenigen welche die Speicher Temperaturen auslesen und sich dann sorgen machen.
 
Die User, denen die Temperaturen egal sind, werden sie in den meisten Fällen gar nicht erst auslesen.
Die User, welche gerne optimieren, geben die Sensoren nützliche Infos.

Beide User Gruppen sollten unterm Strich zufrieden sein.
 
Ich stelle mal eine sehr allgemeine Frage, im moment herscht ja bekanntlich mangel an GPU's, ich selbst bin am Laptop nur noch mit einer Intel HD 630 unterwegs da sich meine GTX 1060 Max Q verabschiedet hat, sieht nach Speicherproblemen aus und am Wochende habe ich noch meinen Rechner von 2013 mit Steinalt I5, GTX 760 und 8GB DDR3 unter oder warens knapp 2000 Mhz Ram oder sowas.

Jetzt aber zu meiner Frage wieso brauchen User, die bereits eine RTX 2070 und aufwärts haben, die schon stärker als die Konsolen Xbox X Series und PS5 sind, unbedingt eine RTX 3000 Karte bzw. eine RX 6000 Karte ?

Danke für die Beantwortung der Frage, weil ich verstehs nicht.
 
.
Jetzt aber zu meiner Frage wieso brauchen User, die bereits eine RTX 2070 und aufwärts haben, die schon stärker als die Konsolen Xbox X Series und PS5 sind, unbedingt eine RTX 3000 Karte bzw. eine RX 6000 Karte ?
Je höher die Auflösung und FPS und Details, desto größer die GPU. Schau mal in die Hardware Datenbank dann sieht man, welche Richtung der Hardwareanspruch geht.

 
Soo meine 3080 FE ist bald da falls Hermes die nicht verliert...

Habe von bequiet ein Kabel zum anschließen bekommen... Aber das ist für meinen Aufbau viel zu kurz! Habe die neuen Kabel einen Namen bzw. Wie finde ich da was längeres? (min. 1m besser 1,5) meine gpu wird außerhalb meines Rechners an der Wand montiert. wo finde ich was passendes?

Und wisst ihr, ob es GPU Wandhalterung gibt?, hätte einfach was selbst gebastelt, aber falls was schickes auf dem Markt existiert, dann würde ich vllt. Einfach das nehmen.
 
Ich stelle mal eine sehr allgemeine Frage, im moment herscht ja bekanntlich mangel an GPU's, ich selbst bin am Laptop nur noch mit einer Intel HD 630 unterwegs da sich meine GTX 1060 Max Q verabschiedet hat, sieht nach Speicherproblemen aus und am Wochende habe ich noch meinen Rechner von 2013 mit Steinalt I5, GTX 760 und 8GB DDR3 unter oder warens knapp 2000 Mhz Ram oder sowas.

Jetzt aber zu meiner Frage wieso brauchen User, die bereits eine RTX 2070 und aufwärts haben, die schon stärker als die Konsolen Xbox X Series und PS5 sind, unbedingt eine RTX 3000 Karte bzw. eine RX 6000 Karte ?

Danke für die Beantwortung der Frage, weil ich verstehs nicht.
Nun ganz häufig aus Spaß. Es ist halt schön neue Technik zu besitzen und zu testen.

Ich glaube zu verstehen worauf du hinaus willst. Ja meistens ist der Mehrwert durch neue Hardware kaum bis gar nicht gegeben und dennoch werden die Teile gekauft wie geschnitten Brot.

Es ist halt auch ganz oft ein "Haben wollen" Gefühl. Oder wie oben bereits gesagt das Interesse am Testen,benchen und tweaken.

Ich mein... Ja also mein World of Warcraft läuft auch ganz gut ohne 3090, 3900x und WaKü. An den Spielen liegt es bei mir definitiv nicht.
 
Nun ganz häufig aus Spaß. Es ist halt schön neue Technik zu besitzen und zu testen.

Ich glaube zu verstehen worauf du hinaus willst. Ja meistens ist der Mehrwert durch neue Hardware kaum bis gar nicht gegeben und dennoch werden die Teile gekauft wie geschnitten Brot.

Es ist halt auch ganz oft ein "Haben wollen" Gefühl. Oder wie oben bereits gesagt das Interesse am Testen,benchen und tweaken.

Ich mein... Ja also mein World of Warcraft läuft auch ganz gut ohne 3090, 3900x und WaKü. An den Spielen liegt es bei mir definitiv nicht.
Kann ich unterschreiben, mein Genre ist abseits von TWW eh recht genügsam (Strategie)
 
das interessante ist ja auch, wenn sich jemand ein neues auto kauft, oder auto tuning macht oder sich neue möbel kauft, hintergfragt das keiner.
bei hardware muss man sich da aber immer rechtfertigen. und das in einem hardware forum... :-)
 
Ich stelle mal eine sehr allgemeine Frage, im moment herscht ja bekanntlich mangel an GPU's, ich selbst bin am Laptop nur noch mit einer Intel HD 630 unterwegs da sich meine GTX 1060 Max Q verabschiedet hat, sieht nach Speicherproblemen aus und am Wochende habe ich noch meinen Rechner von 2013 mit Steinalt I5, GTX 760 und 8GB DDR3 unter oder warens knapp 2000 Mhz Ram oder sowas.

Jetzt aber zu meiner Frage wieso brauchen User, die bereits eine RTX 2070 und aufwärts haben, die schon stärker als die Konsolen Xbox X Series und PS5 sind, unbedingt eine RTX 3000 Karte bzw. eine RX 6000 Karte ?

Danke für die Beantwortung der Frage, weil ich verstehs nicht.
Na weil auch eine 3090 eigentlich noch nicht genügend ist... Ich habe ein 4K 144HZ Monitor.

Und möchte deshalb auch in 4K mit 144FPS zocken... Auch eine 3090 reicht in den meisten Triple AAA nichtmal Ansatzweise aus. Ich kaufe deshalb einfach das beste was man kaufen kann, um meinem Ziel möglichst nahe zu kommen.
 
wieso brauchen User, die bereits eine RTX 2070 und aufwärts haben, die schon stärker als die Konsolen Xbox X Series und PS5 sind, unbedingt eine RTX 3000 Karte bzw. eine RX 6000 Karte ?

Weil selbst die 5 FPS einer 3090 einfach zu wenig sind?

rdr2_2020_10_03_12_09apkqs.jpg


Noch nie aufgefallen, dass man die Leistung einer Graka nicht nur in FPS sondern auch in Bildqualität umsetzen kann? Da ist dann auch die Auflösung egal^^
Besser geht immer.
Die einen können das, wollen das, brauchen das, und den anderen ist der Pixelbrei egal.
 
Aber zockst ja nicht mit 5fps... :ugly:
Ausserdem kommt es stark aufs Genre an. Bei schnellen Spielen achtet keiner auf den Marienkäfer auf dem Grashalm in 50m Entfernung, der gerade eine Blattlaus melkt :D

Ist vielleicht nicht das Optimum, aber ich nutze NV Experience. Da stelle ich den Schieberegler so ein, dass es angenehm läuft (ohne auffällige Rucker). Mit der 2080Ti war 4K mit schönen Details nicht möglich. Da war 1440p Pflicht
 
Pilochun 9. Januar 2021
Ich habe buntes flackern und so 0,5 Sekunden Black Screens mit einer GeForce RTX 3090 Suprim X, LG OLED55CX9LA und 2m Oehlbach Black Magic MKII hdmi 2.1 Kabel.
Alles sehr unregelmäsig, kaum reproduzierbar, 3D und Desktop, dann hilft nur ein Neustart.
g sync kann ich aber schon mal ausschliessen.
Hab da 4K @ 120Hz, RGB, 10bpc und Dynamischer Ausgabebereich Voll im Verdacht, oder die Hdmi 2.1 Schnittstelle insgesamt. Der Ferhnseher ist ja auch nicht unproblematisch.
Werde es mal mit n 1,5m Kabel testen, aber dafür müsste ich erst noch umräumen.

Nach 2 Monaten bin ich dem Problem etwas nähergekommen. Das kürze Kabel hat ein wenig geholfen, dafür Weiß ich nun wann das Flackern auftritt und wie ich es eher schlecht als recht beheben kann.

Wenn der Fernseher per Remote ausgeschaltet wird oder per Windows Monitor ausschalten ausgeht, und nach einer Weile wieder eingeschaltet wird tritt dieses Flackern auf, verstärkt durch eine höhere Temperatur im HDMI Kabel. (folding@home).
Beim zocken, wenn der Fernseher nicht ausgeht, auch kein Flackern.
Um das Flackern zu beheben muss nun das HDMI Kabel kurz von der Grafikkarte getrennt und wieder verbunden werden. Ich hoffe es kommt da bald mal n fix, egal ob TV oder VGA

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Erinnert ihr euch noch an Quantum Break? Das Teil hat immer noch mächtige Anforderungen an die Graka.

Kann das mal jemand mit ner 3090 testen? Als Steam Version mit DX11.

Auflösung UHD, maximale Details, Upscaling deaktiviert (!)

Was macht die so an fps im Anfangsbereich? Mit der 6900XT OC sind es ca. 40 :ugly:
 
Ich habe bei meiner 3090 FE die Backplate entfernt und Küpferkühlkörper auf den Speicher geklebt. Läuft jetzt etwas besser und stabil bei ca. 110 MH/s im Mining mit Gminer.

Eine AIO ist auch bestellt, aber die kühlt nur die Vorderseite und ich erhoffe mit dabei einfach einen geringeren Geräuschpegel bei Volllast. Der Lüfter nervt einfach.

Ich würde mich gerne an das Thema Undervolting für die Karte rantasten, aber ich finde generell nur Anleitungen für OC im Bereich Gaming. Ich müsste doch einfach nur mein aktuelles OC fürs Mining im Kurveneditor beobachten und dann leicht die Kurve begradigen und schauen ob alles stabil läuft oder?
 
Zuletzt bearbeitet:
Ich habe bei meiner 3090 FE die Backplate entfernt und Küpferkühlkörper auf den Speicher geklebt. Läuft jetzt etwas besser und stabil bei ca. 110 MH/s im Mining mit Gminer.

Eine AIO ist auch bestellt, aber die kühlt nur die Vorderseite und ich erhoffe mit dabei einfach einen geringeren Geräuschpegel bei Volllast. Der Lüfter nervt einfach.

Ich würde mich gerne an das Thema Undervolting für die Karte rantasten, aber ich finde generell nur Anleitungen für OC im Bereich Gaming. Ich müsste doch einfach nur mein alkltuelles OC fürs Mining im Kurveneditor beobachten und dann leicht die Kurve begradigen und schaueb ob alles stabil läuft oder?
Wie warm werden denn deine Speicher nun?

Also undervolting fürs mining ist einfach... die Kurve einfach auf einem tiefen wert begradigen.

Zb. Bei 0.75v alles punkte dahinter runterziehen.

Fertig.

Bei mir sieht es etwa so aus.

meine Speicher sind safür bis zum Anschlag auf +1500mhz übertaktet und ich erreiche stabile 125MH/s dabei
 

Anhänge

  • 20210310_091337.jpg
    20210310_091337.jpg
    2,5 MB · Aufrufe: 19
Danke für die Info, werde ich asap anwenden. Die Temperatur kann ich gerade nicht auslesen (oder kann man das mit einem Tool?), habe mir erst einen Infrarotmesser bestellt. Die Backplate wurde halt richtig heiß, deswegen sah ich die Maßnahme schon als sinnvoll an und das Ergebnis ist jetzt zumindest in der Miningstabilität zu sehen. Ich poste die Temps, sobald ich das Messgerät habe :)
 
Danke für die Info, werde ich asap anwenden. Die Temperatur kann ich gerade nicht auslesen (oder kann man das mit einem Tool?), habe mir erst einen Infrarotmesser bestellt. Die Backplate wurde halt richtig heiß, deswegen sah ich die Maßnahme schon als sinnvoll an und das Ergebnis ist jetzt zumindest in der Miningstabilität zu sehen. Ich poste die Temps, sobald ich das Messgerät habe :)
Mit der neusten Version von HW Info kannst du due VRam temperatur auslesen...

Aber Warnung vorne weg, sie sieht nur mässig schön aus! Ich erreiche zb. 86°C mit meinen settings bei maximalem Speicher OC.

Wenn du es sogar in der Mining Leistung siehst, rannte dein Speicher womöglich ins thermale limit, das wären meines Wissens 110°C
 
Zurück