GTX 980ti in 2020?

Luky3000

PC-Selbstbauer(in)
Hallo zusammen.

Wie ist eure Meinung dazu, eine 980ti hat ja etwa die gleiche Rohleistung wie eine GTX 1070 ist aber teilweise deutlich günstiger zu haben.
Als Kritikpunkte fällt mir nur ein:
- Kein FreeSync support (gibt es da mittlerweile abhilfe?)
- Hoher Verbrauch und Hitze
- 2gb weniger Vram

Fällt euch nochwas ein? Oder kann man so eine Karte auch jetzt noch bedenkenlos kaufen?
 
Mein Kritikpunkt an deiner Argumentation wäre, dass die Rohleistung einer Grafikkarte nichts mit ihrer Spieleleistung zu tun hat. Besonders neuere Spiele die eher auf Pascal/Turing ausgelegt werden laufen auf einer 1070 deutlich schneller als auf einer 980Ti - beim gefühlt halben Stromverbrauch. Und mit 6 GB vRAM wirste auch nicht mehr allzu lange viel Spaß haben wenns neue Spiele in hohen Auflösungen sein sollen.

Es hat also durchaus auch technische bzw. berechtigte Gründe warum eine 980Ti günstiger ist. Dennoch kann man die natürlich bedenkenlos kaufen wenn man sich der Nachteile bewusst ist und einem der Preisnachlass entsprechend hoch genug ausfällt.

Aber warum eigentlich keine 1660er? Die kann alles was du an der 980Ti bemängelst, ist etwa gleich schnell bei 120W verbrauch statt 250 und ist auch kaum teurer.
 
Wie ist eure Meinung dazu, eine 980ti hat ja etwa die gleiche Rohleistung wie eine GTX 1070 ist aber teilweise deutlich günstiger zu haben.
Meine Meinung? Sau geile Karte, nutze sie in WQHD und mit Einschränkungen der Ultra Funktion ist alles gut zu spielen, auch moderne AAA-Kracher wie Anno 1800 etc. Man muss Spieleregler bedienen können.

Als Kritikpunkte fällt mir nur ein:
- Kein FreeSync support (gibt es da mittlerweile abhilfe?)
- Hoher Verbrauch und Hitze
- 2gb weniger Vram.
Und diese Gründe reichen aus, um heute eine GTX 1070 zu bevorzugen oder eine GTX 1660 Supadupa
 
Danke für eure Antworten.
Also in erster Linie wollte ich zum Plaudern anregen und wissen Sammeln. Das einzige was für mich gerade Interessant wäre ist eine 980ti Arctic Storm, die sieht ziemlich geil aus mit der Backplate und ich stehe auf so Outside the Box geschichten die sonst niemand hat. Eine 1660 ist zwar eine neuere Karte, aber da eben im Low End Bereich und das ist mir zu "Normal" :D

Das einzig ärgerliche ist wirklich der fehlende FreeSync support, hatte gehofft irgendjemand hätte sowas mal gemoddet oder so seit Nvidia das für die 10**er karten und neuer nachgeliefert hat.
Die Hitze und der Verbrauch ist mir so richtig egal und ich denke spätestens Ende nächsten Jahres nachdem die neuen Konsolen da sind gibt es viele gute 8gb Karten für richtig wenig Geld.
 
ich denke spätestens Ende nächsten Jahres nachdem die neuen Konsolen da sind gibt es viele gute 8gb Karten für richtig wenig Geld.

Ganz viele Leute haben das schon viele Konsolengenerationen lang geglaubt - in der Realität haben Konsolenreleases nie einen nennenswerten Einfluss auf Hardwarepreise gehabt. :ka:
Es wird da immer wahnsinnig viel reininterpretiert (egal ob Preise steigen, fallen oder nichts tun, alles kann man immer irgendwie mit Konsolen begründen) aber einen echten kausalen Zusammenhang gabs nie.
 
Mein Kritikpunkt an deiner Argumentation wäre, dass die Rohleistung einer Grafikkarte nichts mit ihrer Spieleleistung zu tun hat.
Da hast du wohl recht, als ich vor etlichen Jahren mal einen Meiner ersten Rechner zusammengestellt hab hatte ich auch nicht Verstanden warum ein Intel mit 4 Kernen und 3.5ghz schneller sein soll als der AMD mit 6 Kernen und 4ghz. Aber gut da war ich auch erst 13 oder 14 :D

Besonders neuere Spiele die eher auf Pascal/Turing ausgelegt werden laufen auf einer 1070 deutlich schneller als auf einer 980Ti - beim gefühlt halben Stromverbrauch. Und mit 6 GB vRAM wirste auch nicht mehr allzu lange viel Spaß haben wenns neue Spiele in hohen Auflösungen sein sollen.
Die höchsten Auflösungen brauche ich nicht zwingend, das neuste Spiel was ich hab ist Kingdom Come Deliverance und das rennt zweifelsohne eher ins CPU Limit als das 2gb Vram fehlen.
Ansonsten Spiele ich noch viel alte sachen wie Modern Warfare 2, TDU oder Borderlands 2 :)
Aber warum eigentlich keine 1660er? Die kann alles was du an der 980Ti bemängelst, ist etwa gleich schnell bei 120W verbrauch statt 250 und ist auch kaum teurer.
Wie gesagt, wenn nur was ausgefallenes mit dem "Haben-will" faktor, hab eigentlich kein Spiel was aktuell nicht gut laufen würde auf meiner 290x.
Einzig FarCry5 Interessiert mich mal wieder, aber zur not kann ich das auch auf Konsole spielen.
Und ob die Karte jetzt 100w oder 400w nimmt spielt auch nicht so die rolle, da ich den PC ausschließlich zum Zocken einschalte.
 
Es geht bei dem Thema NICHT um Stromkosten, es geht darum, dass eine Karte die 300W verbraucht auch viel schwerer und vor allem lauter zu kühlen ist als eine die nur 150W verbraucht. ;)

Achso ne Meine Graka Ist Wassergekühlt und ich hab vor demnächst meine erste Custom Loop zu bauen.
Also aktuell ist es "nur" eine Accelero Hybrid, aber auch unter stundenlangem Volldampf bekommt meine 290x gerade mal 50-55grad ohne das ich sie Raushöre. :)
 
Es geht bei dem Thema NICHT um Stromkosten, es geht darum, dass eine Karte die 300W verbraucht auch viel schwerer und vor allem lauter zu kühlen ist als eine die nur 150W verbraucht. ;)
Ach, pappelapapp, das geht bestens :nicken:

Endlich leise: Umbau Zotac GTX 980TI AMP! Omega auf 2 x 120mm Noctua Lüfter

Aber natürlich hast Du Recht, wenn ich an die vielen Stunden der Optimierung denke :D
Da dachte ich mir auch nur: Warum habe ich dusselelige Kuh keine GTX 1070 gekauft. :lol:
 
Hallo zusammen.

Wie ist eure Meinung dazu, eine 980ti hat ja etwa die gleiche Rohleistung wie eine GTX 1070 ist aber teilweise deutlich günstiger zu haben.
Als Kritikpunkte fällt mir nur ein:
- Kein FreeSync support (gibt es da mittlerweile abhilfe?)
- Hoher Verbrauch und Hitze
- 2gb weniger Vram

Fällt euch nochwas ein? Oder kann man so eine Karte auch jetzt noch bedenkenlos kaufen?

Nö, sonst fällt mir nichts ein. Wären für mich aber Faktoren, die dich offenbar nicht stören mit deinen Vorstellungen.
Also sag ich -> schnapp sie dir!
 
Ich hatte bis vor wenigen Monaten auch noch eine palit super jetstream. Meines Erachtens nach dir beste custom 980ti. Ging auf 1500 MHz zu clocken. Konnte damit sogar the Division 2 mit sehr guten Details in FHD zocken.
 
Wie gut ist G-Sync/Freesync denn beim "Normalen" spielen? Also keine Esport Fortnite Quatsch.
Ich kann mir halt nix drunter Vorstellen, mein Aktueller Monitor ist ein 27" FHD Asus den ich 2010 oder 11 mal für viel Geld gekauft hab. Ich hab zwar damals drauf geachtet das er schnelle reaktionszeiten hat, aber sonst kann der nix dolles.
 
Wie gut ist G-Sync/Freesync denn beim "Normalen" spielen?
Für mich inzwischen absolut notwendig, gerade auch bei großen Monitoren. Ich eben mal wieder den Anno 1800 Benchmark durchlaufen lassen und kam dabei stellenweise über 144Hz. Im Benchmark ist Vsync abgeschaltet und es kommt zu Tearing, was ich von 30-144Hz nicht habe. Da wurde mir schlecht, nach wenigen Bildern, also besser gesagt schwindelig. Wenn man es nicht kennt und nicht daran gewohnt ist, wird das Gehirn vieles nicht sehen oder als normal wahrnehmen. Ich bin mit 13" Röhren groß geworden, da kann ich heute keine fünf Sekungen mehr mit arbeiten.

Für mich war die Anschaffung eines guten 144Hz G-sync Monitors aus heutiger Sicht die beste Anschaffung überhaupt, viel wichtiger als eine bessere Grafikkarte oder eine bessere CPU. Selbst in 2D ist alles soviel flüssiger. Aber andere werden dazu eine andere Meinung haben
 
Für mich war die Anschaffung eines guten 144Hz G-sync Monitors aus heutiger Sicht die beste Anschaffung überhaupt, viel wichtiger als eine bessere Grafikkarte oder eine bessere CPU. Selbst in 2D ist alles soviel flüssiger. Aber andere werden dazu eine andere Meinung haben

Das unterschreibe ich einfach mal so, seit der 144Hz WQHD Dell hier den alten 60Hz FHD Moni abgelöst hat,. is das ein ganz anderes Gefühl und ab 30Hz aufwärts mit G-sync macht das alles ebenfalls fluffiger...danach will man selbst aufm Desktop keine 60Hz mehr sehen...
Die 1080 leistet da eben halt auch ihren Beitrag, als immernoch recht potetente Pixelschubse. :)
 
Zurück