RTX 2080 VRAM defekt?

GladiusTi

Freizeitschrauber(in)
Moin, ich bin seit einer(?) Woche "stolzer" Besitzer einer GIGABYTE Rtx 2080 Gaming oc. Ich hatte auch soweit keine Probleme (habe aber auch nicht wirklich viel gezockt in den Tagen), doch vorhin nach 1-2 Stunden Rise of the Tomb Raider flackerten für ein bruchteil einer Sekunde komische Pixel/Artifakte auf, die ich so nur aus VRAM-Defekten kenne. Da die RTX Reihe sowieso Probleme mit den ausfallenden Karten hat, kam mir sofort der Gedanke dass die Karte ebenfalls ein defekt hat (Wäre ärgerlich da ich grade erst meine 980 Ti + meine backup Karte R9 290 verkauft habe). Ich habe auf youtube ein Video gefunden was in etwa die selben fehler aufzeigt, nur meine Pixel haben eine andere farbe (Grau?). Ich konnte noch kein eigenes Material einfangen, da der Fehler nach 30min Tomb Raider nicht nochmal aufgetreten ist.

Temps der GPU sind bei 60grad, mit angepasster Lüfterkurve via Afterburner. Die Karte wurde von mir manuell übertaktet, aber nur der Coreclock. Den Speicher rühre ich generell nie an, und bei den RTX Karten war mir das sowieso zu heikel. Powertarget steht bei 122%. Ich werde mal ohne overclock benchen, aber die Fehler wirken komisch für ein Coreclock Problem, oder?

Treiber ist der 416.81

Beispielvideo, bei 0.27 sehen die Artifakte genau so aus wie bei mir, nur halt in einer anderen Farbe

Ich versuche noch selber Footage aufzunehmen, werde jetzt den Morgen Sachen wie Valley, superposition etc in 4k benchen um auch den VRAM auszufüllen, da ROTR ja ebenfalls den VRAM bis zu 7,7 Gb in 1440p auslastet.

Edit: Nach 45min ROTR, und einem reduzierten coreclock (2010mhz) tauchte der Fehler ebenfalls für ein Bruchteil einer Sekunde wieder auf.
Edit2: Die VRAM-Bausteine kommen übrigens laut GPU-Z von Samsung, falls das relevant ist.
 
Zuletzt bearbeitet:
Schwer zu beurteilen aktuell.
Im YouTube Video würde ich sagen der VRAM ist an der Grenze (zu hoch übertaktet) oder kurz vorm eingehen. Auf YouTube weiß man ja nie ob die Karten wirklich Stock laufen oder was der Besitzer nicht alles vorher mit der Karte gemacht hat.

Die RTX Serie hat wenn der VRAM Defekt ist eher ein anderes Muster (Stichwort Space Invaders). Ich würde da weiter testen, mit anderen Games und auch mal den VRAM beim Takt reduzieren. Am besten auch verschiedene Treiber durchtesten, aktuell haut Nvidia ja da sehr viele raus.
Bei Tomb Raider würde ich auch mal DX11 testen anstatt DX12.
 
Ich kann dir dazu nciht viel sagen, daher warte dies bezüglich auf leute die sich mit der Grafikkarte auskennen.
Aber ich möchte noch einmal auf CoreClock und VRAM eingehen.

Denn das eine kann tatsächlich starken einfluss auf das andere haben.
Egal ob bei CPU oder GPU, RAM jeglicher Art, ist ein "Auslagerungs" bereich.

Demnach im RAM werden Sachen gelegt die Später bearbeitet Werden müssen, und oder schon bearbeitet wurden aber noch gebraucht werden etc. Natürlich Ist der Speicher in CPU udn oder GPU niemals Groß genug für alles. Der Speicher in den CHIPS ist aber sehr viel shcneller, was klar ist, denn da sind ja nicht so viele udn lange wege zurück zu legen.

Da aber nciht alles in den CHIPS passt, müssen die Daten ja irgendwo hin. Hier kommt der RAM ins spiel.
Je Höher die Bit Anbindung des Speichers, zur GPU und oder CPU, um so größere oder vie mehr kleinere Daten Können auf einmal ausgetauscht werden. Dann komtm es darauf an wie schnell dieser Austausch stattfindet. Dies kann man Meistens durch den Takt Regeln.

Wenn also eine GPU zu shcnell Rechnet aber lange auf die Ausgelagerten Daten warten muss, dann bremst das.
Ist der RAM zu schnell und kommt CPU udn oder GPU nciht hinterher, bremst das auch. Denn CPU und GPU Fordern nur was an, wenn sie wieder Frei sind.

In der Regel sit also erhöhter VRAm gar kein Problem, da die GPU so etwas nach bedarf anfordert. Das problem selbst dabei wäre nur die Hardware selsbt, welche auch mit dem "mehr" zurecht kommen muss. Sprich Spannung, Takt, Timings etc.

Zu deinem problem selbst, die Karte ist neu, Wenn du OC nur über MSI Afterburn gemacht hast, wäre das nicht so das Problem.
Da deine Karte aber aujch "normal" dieses Problem aufweißt, wäre natürlich interessant zu wäre zu wissen was genau du für ein netzteil hast.
Es kommt mir nämlich in verdacht, das du eventuell auch etwas wenig Saft auf der Grafikkarte hast.

Darüber hinaus ist der Normale Takt für deine Grafikkarte:
GPU Takt: 1515 Mhz
Boost Takt 1890Mhz
Grafikspeicher: 1767Mhz

Deinen Angaben zu folge ist zumindest der GPU-Takt zu hoch.
Kann sein die Karte das einfach nicht mit macht.

Und ein tipp welchen ich Generell allen gerade mit HIGH-END Hardware Empfehle. Achtet beim kauf der Nezteile neben Effizient auch auf den Strom der bei den 12V Maximal mit geliefert werden kann.

A = Strom/Stromstärke (I)
V = Spannung (U)
W = Leistung (P)

U mal I = P
P durch I = U
P durch U = I

Du hast bei deinem Netzteil keine Watt stehen, welche nun dein Netzteil Optimal bekannt gibt. Immerhin gibts deine ausführung für 550W, 650W und 750W.

Wenn ich mich mal an die 550W version halte, dann liegen da auf 12 Volt 20A an oder auch 25A. Ist so nciht zu identifizieren welche 12V Leitung nun was hat. naja. wierviel da letzen endes Raus kommt, in wirklich keit, wenn einige der 12V leitungen nciht genutzt werden durch Board etc. kommt ganz drauf an. aber die RTX 2080 ist mit Maximal 214 Watt angegeben. Die frage ist nun, ist das der Wert wenn man keine Hand anlegt? Oder ist das schon der Maximal wert, selbst wnen man hand anlegt?

Ich ahbe keien Spannung zur 2080. Also nehme ich da mal den Wert der RX Vega 64, welche ich noch im Kopf habe dieser ist 1,200V.
Maximal Leistung durch geschätzte Spannung = Strom der benötigt wird zud er Spannung. 215W durch 1,200V = 179,16A

Nun kommt dein netzteil ins spiel. Auch die 750 udn 650 Watt versionen bieten nur wenig Ampere, so das es aus meiner sicht schon ziemlich eng aussieht.

(Der Spannungswert der Vega 64 habe ich als beispiel genommen, da diese glaub ich in der Regel noch immer höher ist als bei RTX 2080. Wenn ich mich Irre kann man mir diesen Wert mitteilen udn oder selbst mal ausrechnen was man braucht. Formel dazu steht oben zu bedenken sit,: Je Höher die leistung, und umso geringer die Spannung, umso höher ist der Strom, welcher Fließt.)

Und auch wichtig, moderene Hardware sollte man nicht imemr gleich übertakten. Man holt sich Moderne Hardware damit man nicht übertakten muss. Ansonsten hat das ganze doch gar keinen sinn.

Ich ahbe übrigens dieses Netzteil: 850 Watt XFX Pro Core Edition Non-Modular 80+ Bronze - Netzteile ab 800W | Mindfactory.de es ist etwas Laut. aber geht noch. Allerdings ist es für manche Mainboards nicht mehr als zu geeignet. Aber die Ampere auf der 12V Schiene sind sehr gut. In der Richtung oder mindestens was bei 50 Ampere sollte dein netzteil auf 12V schon liefern können.
 
Zuletzt bearbeitet:
Da ist das Höchste bei 30 Ampere auf 12V. Daher könnte die sache schon eng werden wenn du übertaktest. So könnte es eventuell gerade noch soklappen. Aber man sollte imemr auch mit Buffern rechnen, um gar nciht erst in so eine situation zu kommen.

12V mal 30A = 360W.
12V mal 25A = 300W.

Sollte also normal mit der Grafikakrte noch fertig werden, wenn da nicht das "ABER" kommen würde, welches jetzt kommt. xD

Du musst auch bedenken das die CPU und alles andere ebenfalls über diese Schienen laufen. Also Mainboard, RAM, GRafikkarte, Laufwerke, Festplatten etc.

Also kann von den ausgerechneten Watt angaben hier und da auch einschränkungen kommen. (Es muss ja auf alle Komponenten Verteilt udn angewendet werden). Wenn du mit Übertakten zu tun hast, sollte sowieso ein besseres Netzteil her. Da ich mir vorstellen oder denken kann, das du das gleiche auch mit der CPU machst.
 
Naja, ich hab wirklich keine Ahnung von Netzteilen (hatte hier schonmal ein "Problem" als ich 2014 den rechner zusammengestellt hab), aber wäre die 980 ti Msi übertaktet auf 1450mhz~ nicht sogar noch belastender für das Netzteil? Des Weiteren, ja der CPU ist auch übertaktet auf 4,3 Ghz bei 1,2volt
 
Ja die Wolt sind bei der CPu so eine Sache. Geringe Spannung = hhöher Strom. Jetzt ist die Frage wieviel Watt verbraucht die CPU?
Diese hat ja ein aufnahme Limit. Und die TDP Angabe davon hilft nur bedingt.

TDP bei Grafikkarten ist gleich wie bei CPU. Sie hat wenig aussage kraft über den Tatsächlichen Verbrauch.
Meine alte MSI Radeon R9 280 3GB z.B. hat standart mäßig eine TDP im Bios stehen von 150Watt. Das Karten Limit beträgt damit (laut bios) 180W Leistung. Also was es vom Netzteil zieht. Ich weiß aber das die Grafikkarte schon über HWInfo was bei bis zu 260Watt angezeigt hat. HWInfo ist aber nciht genau. Rechnet man Manuell nach, kommt ein etwas höherer Wer dabei raus.

Würde man also gezielter nachmessen können, würde man einen genauren Wert bekommen.
Aber nur einmal so zum Verbrauch. Und die Karte war icht einmal übertaktet.

Dann kommt Hinzu das die Architektur unterschiedlich ist. Das heißt auch bei Leistungsschwankungen können die karten vielleicht auch anders mit dem umgehen was Ihnen zur verfügung steht. Heißt, manche können auch gut arbeiten obwohl nicht das ankommt, was ankommen müsste. Das wirkt sich in der Leistung aus, welche auch ungemerkt reduziert sein kann.

So ich muss aber nu zur Arbeit.
Also Netzteil an dieser Stelle mal überdenken.

Ältere Grafikakrten, können mehr Verbrauchen weil sie Alt sind, im vergleich zu der Leistung.
Neue Grafikkarten hingegen können weniger verbrauchen auf grund Ihrer Leistung. Allerdings haben diese meist auch einige Hardware Päckchen mehr zu tragen was alles Energie braucht.

Demnach kann man sagen, die Leistungs aufnahme kann im verhältnis zur erbrachten Leistung im vergleich zu früher gleich bleiben.
Sprich damals alte Grafikkarte vielleciht 190Watt von Nvidia mit heute solala Leistung. Heute Grafikkarte mit "relativ guter leistung" für ca. 215 Watt. Nimmt sich erst einmal nichts. Aber man weiß ja nicht imer ganz genau, welche komponente wieviel nun wo von was braucht. gerade wenn man selbst hand anlegt kann es zu starken schwankungen kommen.

So aber nu wirklich weg. xD
 
Das Netzteil ist mehr als ausreichend, für die Konfiguration sogar überdimensioniert.
Ich habe meine 2080 TI selbst an einem 650W Straight Power 10 hängen, das hat schon meine Vega 64 LC ohne Probleme versorgen können. Wenn es zu wenig ist, schaltet das NT einfach ab, habe ich paar mal provoziert.
Zum anderen hängt die CPU nicht an der 12V Leitung sondern an der 3.3V Leitung welche mit 25A genügend Reserven hat für die CPU.
Eine 980 TI mit 1450 MHZ hat da mehr gezogen als seine jetztige 2080.
 
Hm allein von der Leistung her hatte die 980ti schon mehr gezogen, allerdings sind die Lastwechsel bei anderen Generationen anders, das kann schon mal Probleme bereiten. Generell kommt es tatsächlich auch auf die Stromversorgung der Wohnung/des Hauses an in dem man ist, da gibt es auch durchaus Unterschiede die ein gutes Netzteil dann ausgleicht, ein schlechteres eher weniger gut. Zu sagen etwas funktioniert, weil es bei einem selbst funktioniert ist daher immer etwas gefährlich, zumindest würde ich nie drauf wetten ;).
Glaub allerdings auch nicht das das hier das Problem ist. Sobald es Infos zu dem Bench mit Standard Takt gibt wissen wir mehr ^^, bis es soweit es schließe ich mich mal der Meinung das der Takt zu hoch ist an.
 
Habe jetzt ein paar Sachen probiert: TimeSpy mit out-of-the-box Speed (1935mhz) -> Keine Probleme.
TimeSpy mit OC 2055-2040Mhz -> Keine Probleme.
ROTR mit stock speed -> konnte den Fehler bisher nicht reproduzieren.
Shadow of the Tomb Raider mit stock speed -> Keine Probleme
Valley Benchmark in 4k -> Keine Probleme
Superposition 8k egal ob mit oc, oder stock -> Keine Probleme

Ich werde die Werte mal unangetastet vom Afterburner lassen, und spätestens heute Nachmittag mal ROTR länger laufen lassen. Trotzdem wundert es mich, dass in keinem der Benchmarks der Fehler reproduzierbar ist
 
Die Benchmarks haben einfach teils andere Lastszenarien. Kann zum Beispiel in TimeSpy auch deutlich höhere Taktraten fahren als in BF V, da spielen einfach mehrere Faktoren mit rein. Was du versuchen könntest um Vram Fehler in Benchmarks zu provozieren wäre VSR o.ä. zu benutzen, bzw. TimeSpy in 8k oder ähnlich absurd hohen Auflösungen zu fahren.
 
Habe ich mit Superposition und Tomb Raider probiert, jeweils in 8k. Der VRAM war auch voll ausgelastet, zumindest in Tomb Raider. Funktioniert DSR in TimeSpy? Muss man da nicht die Advanced Edition von 3dmark besitzen, um die Auflösung zu ändern? Ich lasse jetzt nochmal Superposition mit Overclock in 8k ein wenig im loop laufen.
 
Ah ok, ob DSR mit TimeSpy geht weiß ich leider nicht, müsste man evtl. einfach mal testen, sollte man anhand der Frames ja deutlich erkennen obs funktioniert ^^.

Kannst du falls die Artefakte nochmal auftreten versuchen einen Screenshot davon zu machen, bzw. hast du zufällig die Zeit an der die Artefakte in dem verlinkten Video auftreten. Grad beim fix drüberschauen hab ich die irgendwie nicht gefunden :P
 
Leider konnte ich den Fehler bisher nicht reproduzieren. Bei 0,27 sieht man diesen "pixelcluster?". Am besten auf 0,25 speed stellen, das video. Meine Pixel waren halt anders farbig. Momentan hab ich den Fehler nur in ROTR erlebt, zwei mal. Einmal mit 2055mhz overclock, und einmal mit rund 2010mhz. Mit Stock hab ich ihn noch nicht bekommen. Ich werde noch ein paar Anwendungen durchtesten, aber ich glaub ich hau mich erstmal aufs Ohr. Zum Glück muss ich heute nicht raus.
 
Kann ein simpler Treiberbug sein. TimeSpy ist Kindergeburtstag von der Last her, das taugt zu nichts eigentlich.

Mach mal folgendes zum testen, heiz die Karte in eine fordernden Spiel mal lange auf, am besten mehrer Stunden oder nimm einen Lopp aus dem 3DMark, am besten FS Ultra wenn du hast. DAnach die Karte ordentlich auskühlen lassen und dann wechselseitig belasten.
Das ist ein Szenario wo viele Karten hopps gehen.
 
Die Temperaturen die angezeigt werden beziehen sich auf die GPU und nicht auf die VRam oder der Spannungswandler. Daher kann es durchaus sein das diese nicht ausreichend gekühlt werden. Die Grafikkarten takten soweit hoch wie sie können, daher nicht die Angaben des Hersteller oder des Händlers beachten. Was anders ist bei eigenem OC, dann kann es durchaus sein das hier zu hoch getaktet wurde wenn solche Bildfehler angezeigt werden.

Daher bevorzuge ich in meinem Fall meine Wakü, da hier Spannungswandler sowie VRam auch aktiv mit Wasser gekühlt werden und ich so in Sache OC und normalem Betrieb mehr Spielraum habe.

TimeSpy habe ich bei mir mit 2115 MHz / 8000 MHz ohne Grafikfehler durchlaufen lassen können.
NVIDIA GeForce RTX 2080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO

Anhang anzeigen 1023340 Anhang anzeigen 1023341 Anhang anzeigen 1023342 Anhang anzeigen 1023343
 
Zuletzt bearbeitet von einem Moderator:
Es gibt auch Luftgekühlte Karten die VRAM und VRM aktiv mitkühlen.
Ich nenne gerne meine Gainward Phoenix GS, da Gainward den Kühler der VRM und des VRAM mit dem GPU Kühler verbunden hat. So wird die Wärme an den GPU Kühler abgegeben und wird dann abgeleitet, so kann man Hotspots verhindern / eindämmen. Mit undervolting kann man so schön eine extrem leise und Leistungsstarke kreieren. Leise war die Gainward Out of the Box schon, nur undervolte ich gern und passe den Takt entsprechend an.

Wenn ich mir die Gigabyte Karte so ansehe, verfolgt Gigabyte das gleiche Konzept wie Gainward. Glaube da also nicht dass da die Temps vom VRAM und VRM zu hoch sind, sofern nicht max OC angestrebt wird.
Wie schon geschrieben wurde, es kann auch ein Treiber Bug sein, aktuell schmeißt Nvidia mit Treibern nur so umsich, einige davon sind von Bugs betroffen. Ich hatte bei Shadow of the Tomb Raider selbst schon paar Bildfehler unter DX12, die dann plötzlich weg waren und nie wieder auftauchten. Ich lasse mich da auch nicht verrückt machen, mein Nachbar hat um seine 2080 angst da er schon paar Fehler in Games gehabt hat. Ich war bei ihm, habe mir das angesehen und ich schiebe es auf Games, PUBG ist einfach nicht gut optimiert und zeigte paar mal Schattenfehler und AC Odyssey hatte er so eine Schleier, der mit neuern Treibern weg ist.
Nvidia hat da Turing noch nicht so im Griff, GTA 5 läuft ja immer noch langsam auf Turing Karten und Sudden Strike 4 erzeugt immer noch Bildfehler und manch MS Patch tut dann noch sein übriges.
 
Es gibt auch Luftgekühlte Karten die VRAM und VRM aktiv mitkühlen.
Um es genau zu sagen... alle Grafikkarten! ;)
Nur kann dies unter gegeben Umständen mit OC etwas knapp werden und ist daher auch nicht mit Wasser vergleichbar.

Es ist jetzt nicht so das mit Luft kein OC genutzt werden kann, aber hier muss man halt Kompromisse eingehen und die GPU Temperatur hat hier rein gar nichts auszusagen.
 
Zuletzt bearbeitet von einem Moderator:
Nicht so ganz.
Asus und MSI z.B. setzen gern auf eine Grundplatte welche dann von Luftstrom gekühlt werden soll, auch EVGA hat das schon paar mal so gemacht. Halte ich für fragwürdig wenn es um Karten geht die mehr als 300W verbrauchen können, da solch Grundplatten eher die Hitze speichern und nur widerwillig abgeben. Da ist es schon besser wenn man alles mit dem GPU Kühler verbindet, Leistung ist ja genügend vorhanden. Ich mein solch Luftkühler sind ja für 400W und zum Teil mehr ausgelegt, da wäre es für mich logisch alles was wärme erzeugt mit dem Kühler zu verbinden und direkt abzuführen. KFA² hat z.B. schon mal eine Vaporchamber eingesetzt und die VRM / VRAM mittels Grundplatte und Wärmeleitpads mit der Chamber verbunden, halte ich auch nicht für gut.
 
Mir ging es jetzt nur darum das die VRams und Spannungswandler doch eine höhere Temperatur mit OC erreichen können und das ganz unabhängig vom Hersteller. Weil hier die GPU Temperatur als Ansatz angenommen wurde und man dann der Ansicht ist das die Temperaturen passen. Das kann aber nur dann davon ausgegangen werden wenn hierzu noch Sensoren gesetzt werden die besonders diese Bereiche mit messen oder eine Wärmebildkamera mit verwendet wird.

Bei MSI unter Luft wird auch eine Grundplatte(Baseplate) verbaut dessen Bauteile wie Spannungswandler und VRams auch mittels Wärmeleitpads die Wärme weiter auf den Kühlkörper übertragen.
Anhang anzeigen 1023346
(MSI GTX 1070 Gaming X)
 
Zuletzt bearbeitet von einem Moderator:
Zurück