Gigabyte Aorus GTX 1080 Ti oder der Fluch des schlechten Chips

Status
Für weitere Antworten geschlossen.
H

Hornissentreiber

Guest
Hallo Gemeinde,

ich dachte mir, meine Erfahrung mit meiner neuen Graka könnte für diejenigen unter euch interessant sein, die darüber nachdenken, sich nicht nur eine GTX 1080 Ti, sondern gleich eines der teureren Designs zu kaufen.

Als Spieler mit UHD-Monitor braucht man bekanntlich nur eines mehr als eine Grafikkarte mit viel Rechenleistung: eine Grafikkarte mit noch mehr Rechenleistung. Ausgerechnet in der heißen Phase des Mining-Wahns, als die Graka-Preise so richtig durch die Decke gingen, stolperte ich über einen Preis für eine Gigabyte Aorus GTX 1080 Ti, der in dieser Phase geradezu günstig anmutete, nämlich 765 Euro (Zwei Tage später kostete sie beim gleichen Anbieter 866 Euro!). Meine sechs Monate alte GTX 1080 kostete neu zu der Zeit über 600 Euro und so verkaufte ich sie zum gleichen Preis, zu dem ich sie selbst gekauft hatte und gönnte mir die Aorus.

Endlich, so dachte ich, würde ich damit The Witcher 3 in UHD mit 60 FPS spielen können, wofür etwas über 2 GHz unter Dauerlast erforderlich sein würden. Das Design der Aorus ist ja aus diversen Tests, u.a. auch aus PCGH als eines der schnellsten und zugleich leisesten bekannt, darum war ich mir relativ sicher, dass das klappen dürfte. Bisher hatte ich mit meinen Grafikkarten, die ich schon immer übertakte bzw. bei Bedarf modde, immer viel Glück und habe bisher immer mein angedachtes OC-Ziel erreicht. Tja, und dann musste ich feststellen, dass mein Exemplar kaum die 2 GHz erreicht, jedenfalls nicht dauerhaft stabil. Ganz egal, was ich versucht habe, die Karte läuft mit um die 1970 MHz stabil, aber überschreitet die 2 GHz eben nicht, schon gar nicht stabil. Offenbar habe ich schlicht einen schlechten Chip erwischt, womit auch die Frage geklärt wäre, ob Gigabyte die Chips für die High-End-Serie Aorus selektiert. The Witcher 3 läuft damit z. B. auf Skellige zwar mit durchschnittlich 60 FPS, das schwankt aber stark zwischen etwa 55 und 63 FPS. Das führt zu extremem Tearing, sodass diese Bildrate in der Praxis nicht nutzbar ist. Als alte Grafikhure bin ich nicht bereit, die Qualität zu senken (wozu hat man UHD?) und so gebe ich mich zähneknirschend mit 30 FPS zufrieden. Das macht mir nicht viel aus, ich gehöre zu denen, die niedrige FPS als nicht unangenehm empfinden. Ärgerlich daran ist aber, dass meine alte GTX 1080 bei identischen Qualitätseinstellungen auch locker 30 FPS stemmte. So gesehen war der Kauf der GTX 1080 Ti gewissermaßen witzlos. :motz:

Und noch eine unangenehme Überraschung habe ich erlebt: Ich encodiere mit der Karte auch Videos in H.265. Das Tempo dabei ist atemberaubend, aber ich habe plötzlich Artefakte in den umgewandelten Videos gehabt. Nach langwieriger, ergebnisloser Fehlersuche kam ich dann auf die Idee, die Karte einfach mal zu UNTERtakten. Übertaktet hatte ich sie manuell nicht, aber auch beim Encodieren lief sie ganz von selbst mit über 1,9 GHz. Mit Untertaktung waren die Artefakte endlich verschwunden und die Umwandlung ist nur geringfügig langsamer geworden. Das hatte ich nun überhaupt nicht erwartet, dass eine Grafikkarte sich von selbst so hoch taktet, dass sie Bildfehler erzeugt.

Nun ja, ich muss mich damit arrangieren und habe ja trotzdem kein schlechtes Geschäft gemacht, wenn man die aktuellen Preise bedenkt. Ich will damit nur diejenigen warnen, die sich zu sehr auf die guten Tests dieser Grafikkarte verlassen. Übertakten ist und bleibt ein Glücksspiel und auch das beste Design kann einen schlechten Chip nicht kompensieren. Viele Leute erreichen mit der Founders Edition plus Accelero locker höhere stabile Taktraten als ich. :heul:

Beileidskarten und Trostkuchen bitte an die PCGH-Redaktion, die schicken das dann an mich weiter. ;)

Munter bleiben!
 
Lt. PCGH-Test liegt beim Witcher in UHD, die 1080ti 25% vor der 1080.
Auch wenn die 1080 gut zu übertakten ging und die ti nun weniger gut, sollte immer noch ein Abstand von etwa 20% übrig bleiben.

Wie sinnvoll letztendlich der Aufpreis von ca. € 165,- dafür war?
Das sieht wahrscheinlich jeder Nutzer etwas anders.

PS: Ich lass gerade einen Hut zum sammeln von Spenden durchgehen :D
 
Wenn die Karte sich selbst so hoch taktet, dass Artefakte entstehen, sollte es sich doch um einen Garantiefall handeln oder nicht?
 
Als alte Grafikhure bin ich nicht bereit, die Qualität zu senken (wozu hat man UHD?) und so gebe ich mich zähneknirschend mit 30 FPS zufrieden.
Nun, dann bist du wahrlich selbst Schuld, dass dir die neue GPU keinen Mehrwert bringt. Meine das nicht böse, aber wo ist das Problem z. B. die Schattendetails um eine Stufe zu reduzieren, damit die 60FPS gehalten werden?
Schau selbst, bei einem dieser beiden Screenshots ist alles auf max., bei dem anderen alles auf Hoch (bis auf Texturen und Detailgrad):

1.jpg 2.jpg

Die FPS habe ich mit Absicht oben ausgeblendet. Ich bin mir ziemlich sicher, dass du keinen Unterschied feststellen wirst.
30FPS schafft jedenfalls meine "kleine" 980Ti schon in UHD, dafür hättest du dann keine 700€ sonstewas ausgeben müssen ;-)
 
Wenn die Karte sich selbst so hoch taktet, dass Artefakte entstehen, sollte es sich doch um einen Garantiefall handeln oder nicht?
Das dachte ich auch zuerst, aber wenn ich die jetzt reklamiere, bin ich ja wochenlang ohne Graka und ich habe JETZT Zeit zum Daddeln. Und mir ersatzweise eine zweite GTX 1080 Ti zu kaufen, dafür reicht mein Wahnsinn dann doch nicht ganz aus, obwohl ich drüber nachgedacht habe. ;)

...dafür hättest du dann keine 700€ sonstewas ausgeben müssen ;-)
Habe ich nicht, sondern 265 Euro. Die alte Graka muss man natürlich gegenrechnen. Auch wollte ich keine Grundsatzdiskussion über Sinn und Unsinn von High-End-Grafikkarten anfangen, sondern einfach nur diejenigen informieren, die das vielleicht interessiert. Dass du ein Verfechter der "wozu Ultra-Details-Fraktion" bist, weiß ich. Lass den anderen doch ihren Spaß, ja?

Munter bleiben!
 
3820x1648 Pixelgenau zocken, und schon hast Du Deine fehlende Leistung ohne Visuelle Einbuße.
 
3820x1648 Pixelgenau zocken, und schon hast Du Deine fehlende Leistung ohne Visuelle Einbuße.

Das habe ich versucht, aber die Auflösung wird im Witcher-Menü nicht angeboten. Auch nicht, wenn ich den Desktop auf diese Einstellung eingestellt habe. Selbst dann wird mir nur UHD, WQHD usw. angeboten.
 
Schau mal auf der Gigabyte Seite, da gibt es 2 neue Bios Versionen. Deine Karte kommt standardmäßig mit nur 250 Watt Powertarget
und wenn dann zu hohe Taktraten erzwungen werden kann es zu Fehlern kommen. Vielleicht hat das F3P Bios diesen Fehler behoben ?

Du könntest auch einfach per MSI Afterburer das PT etwas erhöhen und schauen ob es immer noch zu Fehlern beim Encodieren kommt.
Wenn du dauerhaft höheren Takt ohne Softwareübertaktung willst dann kannst du das F3 Bios flashen weil dann Standard 300Watt PT.
 
Dann ist da was grundlegendes bei Dir im Argen, oder Du hast noch DSR aktiv. Schließt sich gegenseitig aus.
 
Schau mal auf der Gigabyte Seite, da gibt es 2 neue Bios Versionen. Deine Karte kommt standardmäßig mit nur 250 Watt Powertarget
und wenn dann zu hohe Taktraten erzwungen werden kann es zu Fehlern kommen. Vielleicht hat das F3P Bios diesen Fehler behoben ?

Du könntest auch einfach per MSI Afterburer das PT etwas erhöhen und schauen ob es immer noch zu Fehlern beim Encodieren kommt.
Wenn du dauerhaft höheren Takt ohne Softwareübertaktung willst dann kannst du das F3 Bios flashen weil dann Standard 300Watt PT.
Habe ich alles schon längst gemacht. Trotzdem danke für den Tipp. Das Teil taktet einfach nicht höher, schlechter Chip eben.

Dann ist da was grundlegendes bei Dir im Argen, oder Du hast noch DSR aktiv. Schließt sich gegenseitig aus.
Nein, auch kein DSR aktiv.
 
Wv FPS wohl Unterschied vorhanden sind in UHD zwischen 1970MHz vs zB 2050MHz. Ich schätze 1-2 maximal^^
Teste es mal aus, sollte kaum eine Differenz vorliegen zB zwischen 1900MHz vs 1970MHz.
Zocke grad wieder mal the evil within, Unterschied zwischen 1823MHz vs 2038MHz beträgt nur 4 FPS.
1823MHz läuft jedoch mit 0.85V und 2038MHz mit 1.031V. Verbrauch steigt um rund 60W und Temp/Lautstärke steigt natürlich auch.
0.95V mit 2000MHz= selbe FPS wie mit 1.03V und 2038MHz, reduziere ich auch 0.9V und 1923MHz, verliere ich nur 1 FPS (von 55 runter auf 54).
Von dem her teste es mal aus, mit Pascal brauchst du keine Wunder erwarten beim OC, kannst vllt rund 10% FPS+ rausholen wenn du bis ans Limit übertaktest. (also 1800-2050MHz sind vllt 10% FPS Differenz)
 
Zuletzt bearbeitet:
Wv FPS wohl Unterschied vorhanden sind in UHD zwischen 1970MHz vs zB 2050MHz. Ich schätze 1-2 maximal^^
Teste es mal aus, sollte kaum eine Differenz vorliegen zB zwischen 1900MHz vs 1970MHz.
Zocke grad wieder mal the evil within, Unterschied zwischen 1823MHz vs 2038MHz beträgt nur 4 FPS.
1823MHz läuft jedoch mit 0.85V und 2038MHz mit 1.031V. Verbrauch steigt um rund 60W und Temp/Lautstärke steigt natürlich auch.
0.95V mit 2000MHz= selbe FPS wie mit 1.03V und 2038MHz, reduziere ich auch 0.9V und 1923MHz, verliere ich nur 1 FPS (von 55 runter auf 54).
Von dem her teste es mal aus, mit Pascal brauchst du keine Wunder erwarten beim OC, kannst vllt rund 10% FPS+ rausholen wenn du bis ans Limit übertaktest. (also 1800-2050MHz sind vllt 10% FPS Differenz)
Ich schätze, dass es, je nach Scenario zwischen 1 und 4 FPS Unterschied macht und genau das würde mich auf stabil über 60 FPS bringen, von seltenen Ausreißern einmal abgesehen. Dieses ständige Gewackel knapp über /knapp unter 60 FPS, die ich aktuell habe, sind das Problem. Das Tearing, das dadurch entsteht, ist nicht auszuhalten.

Aber dieser Thread kann ruhig geschlossen werden, mein Anliegen war ja nicht, nach Hilfe zu fragen, sondern mein Erlebnis mit dieser "nicht-ganz-so-High-End-Grafikkarte" zu schildern. Selbst bei so einem Design ist man vor schlechten Chips nicht sicher. Das war die ganze Botschaft.

Munter bleiben!
 
Status
Für weitere Antworten geschlossen.
Zurück