Update: von GTX 970 zur RTX 2060

Ja, die Grafikkarte schaut echt toll aus :) Die folgen alle samt am Wochenende.

Auch die weiteren Tests, und Videos der jeweiligen Games in den getesteten Auflöungen.
 
Willkommen endgültig auf meiner Ignore Liste Schaffe89, Junge Junge gehst du einem auf den piss.

Nunja, also den Beitrag habe ich weder zitiert noch mich darauf bezogen, also lenk mal nicht von dem ab was du geschrieben hast.
Einerseits sagst du RT sei nichts wert und auf der anderen Seite nutzt du dann RT Settings um den Speicherausbau als völlig unzureichend hinzustellen.

Komischerweise kann ich mit meiner 2060 in Full HD ohne Ruckler damit spielen.

Was mich nervt sind diese extremen einseitigen Argumentationen. AMD hat in Punkto VRAM einen Vorteil, was passiert? Vram ist das wichtigste. AMD hat Async Compute, Async compute ist das wichtigste, usw usf.

GPUs haben mehrere Eigenschaften als nur den VRAM. Seitdem AMD teils mehr VRAM anbietet ist das aber plötzlich jetzt das wichtigste an einer GPU, Leistung, Features, Effizienz ist dann irrelevant.

Was soll an einer 2060 für 330 Euro bitte verkehrt sein..., kann man doch problemlos kaufen.

PCGH sagt mir ich benötige für 4K The Division 2 16 GB Vram, ich hab es in der Beta auf ner 4 GB Karte ruckelftei gespielt, ähnlich wie ResEvil, ein reiner VRAM Blender.
 
Zuletzt bearbeitet:
Ja Wahnsinn 4 Jahre alte Karten, die schon immer gleichauf lagen, haben jetzt bei der Karte mit dem halben Speicher 6% Vorsprung in Full HD im PCGH Index generiert.
Wobei man da festhalten muss, dass Durchschitts-FPS Fälle von VRAM Mangel nicht aussagekräftig darstellen kann, erst recht nicht gemittellt über verschiedene Titel mit unterschiedlichen Anforderungen hinweg. Bevor mit jetzt irgendwer anspringt, ich hatte mich damals selbst für eine 970 und gegen 290(X) entschieden.

PCGH sagt mir ich benötige für 4K The Division 2 16 GB Vram, ich hab es in der Beta auf ner 4 GB Karte ruckelftei gespielt, ähnlich wie ResEvil, ein reiner VRAM Blender.
Wurde Texturauflösung automatisch reduziert?

Ich bin der mit Leistung echt zufrieden. Ich kann somit auf FHD gut spielen.
Da musst du dir die Frage gefallen lassen, wozu du dann ein UHD Monitor gekauft hast?;)
 
@Birdy84: Da hast du Recht: Ich sage darauf, für Videos / Movies nicht für Games :) Das Thema Gaming in 4K ist durch den Monitor eher nur spielerei.
 
Ja aktuelle engines sind nicht so blöd und knallen sturr den vram voll... Wenn zu wenig vram vorhanden ist, werde bei den meisten modernen engines nicht die hochauflösenden texturen dargestellt. Egal was man in den Grafik settings einstellt.

Das fps nicht wirklich Aussagekräftig sind, sollte eig klar sein
 
PCGH sagt mir ich benötige für 4K The Division 2 16 GB Vram, ich hab es in der Beta auf ner 4 GB Karte ruckelftei gespielt, ähnlich wie ResEvil, ein reiner VRAM Blender.

Ich verlasse mich gerne immer auf die Meinung von Leuten, die mehr Ahnung haben als ich. Wenn ich nun über viele Stimmen hinweg höre (von Youtubern als Influencer, seriöse Redaktionen wie PCGH, CB etc., um nur die Beispiele zu nennen, die hier schon im Gespräch waren), dass 6 GB RAM wenig zukunftstauglich sind und es auch noch mit Framtime-Messungen gezeigt werden kann, glaube ich das (zumal ich selbst solche Probleme mit meinem alten Speicherkrüppel hatte). Ich habe es selbst schon erlebt, nachdem ich einfach mal mehr als das doppelte an VRAM zur Verfügung hatte.
Warum sollten das also so viele Leute behaupten, wenn es dann doch nicht stimmen sollte? Oder haben alle keine Ahnung außer dir?
 
Auf jeden Fall, du wirst mit (höherem) Supersampling spielen können.

Es ist klar, dass wir hier über ein Luxusproblem diskutieren, aber immerhin geht es ja auch um ein Produkt für 400€. Natürlich ist alles irgendwie ein Kompromiss. Aber es gibt aktuell Alternativen, die eben das angesprochene Problem nicht in dem Ausmaß haben, namentlich 1070Ti und Vega 56/ 64. Darüber hinaus wage ich zu bezweifeln, dass man hoch aufgelöste Texturen an einem FHD Display nicht wertschätzen kann.

Es bestreitet ja keiner, daß 8 GB VRam besser sind als 6GB. Nur die Übertreibung nervt einfach. Das viel zitierte und und oft benutzte Mordos Schatten ist so ein Beispiel um aufzuzeigen welchen Verlust man mit zuwenig VRam hat.
Aus dem PCGH Test

Wir benchen das Spiel mit Ultra-Details samt aktiviertem HD-Content
und schalten die dynamische Auflösungsskalierung sowie die optionalen Framelimiter ab. Selbstverständlich testen wir mit den zum Testzeitpunkt aktuellen Grafiktreibern von AMD und Nvidia, zum Einsatz kommen die Radeon Software 17.10.1 sowie der Geforce 387.92 WHQL. Wie gehabt setzen wir den anisotropen Filter auf "Hohe Qualität" und deaktivieren VSync.
Mittelerde Schatten des Krieges: "Ultra" ist ein Speicherfresser

Schatten des Krieges ist ebenfalls kein Kostverächter: Im Grafikmenü bescheinigt sich das Spiel in Full-HD-Auflösung mit maximalen Details selbst einen Appetit von rund 8 GiByte. Gut zu wissen: Das ist nur ein Wunschwert, tatsächlich benötigt wird laut unseren Tests deutlich weniger. Fakt ist, dass Sie mit einer 2-GiByte-Grafikkarte wie der Geforce GTX 680/770 oder Radeon R9 270(X)/HD 78x0 Abstriche bei den Texturdetails machen müssen, damit das Spiel ordentlich läuft. Bereits eine Grafikstufe unter "Ultra", beim "Sehr hoch"-Preset, sinkt der Speicherbedarf laut spielinterner Aussage von 8 auf 2,5 GiByte, wobei die Texturen den größten Anteil daran haben. Setzen Sie alles auf ultra und nur die Texturen auf sehr hoch, werden 3,5 GiByte benötigt.

Und jetzt schau Dir mal den Texturenvergleich mal an
http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=141669

Warum soll ich mir 12GB HD-Texturen laden, wenn eigentlich null Unterschied da ist. Nur um den VRam unnötigerweise zu belasten?
Da lasse ich lieber Tesselation an.
http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=141645

Gegauso wie bei Rise of the Tomb Raider, ebenfall ein viel zitierter Speicherfresser.
Mit meinen 6GB VRam auf der GTX 980 Ti gabs auch in 4K keinen Texturmatch und das Spiel lief entsprechend der Karte gut.

Ich befürworte natürlich einen Kauf einer Grafikkarte mit viel VRam. Aber wie hier der @TE teilweise behandelt wird ist unter aller Kanone. Wenn er sich eine 6GB Karte für FHD kaufen will (was für mich ausrechend ist), dann soll er doch machen.
 

Anhänge

  • ROTTR_2016_09_24_12_50_36_374.jpg
    ROTTR_2016_09_24_12_50_36_374.jpg
    2,1 MB · Aufrufe: 35
  • ROTTR_2016_09_24_12_53_30_872.jpg
    ROTTR_2016_09_24_12_53_30_872.jpg
    2,1 MB · Aufrufe: 34
Es geht doch eher darum das 6GB einfach nicht zukunftsfähig sind, wenn und gerade unter WQHD die Karte jetzt schon an der 6GB Vram Grenze kratzt und für eine 400€ Karte in 1-2 Jahren die Details auf medium runter zustellen, damit man einigermaßen vernünftige FPS geliefert bekommt. Ist im Grunde nichts anderes wie auch mit der GTX970 und der R9 390 Heute und da sieht es nicht anders aus.

Und um was anderes geht es hier nicht, von der Abzocke seitens Nvidia für diesen 6GB Speicherkrüppel 2019, einmal ganz abgesehen, isses sein Ding für was er seine Kohle aus dem Fenster wirft. Aber brauch man sich dann auch nicht wundern wenn Nvidia weiterhin solch eine abgefuckte Preis und Firmenpolitik fährt wie in der Vergangenheit. Wie z.B. die Preise der x80 Modelle seit der GTX580 bis dato einfach mal zum Release zu verdoppeln.

Und ein jeder unterstützt dann noch sowas mit dem Kauf solcher Produkte.
 
Zuletzt bearbeitet:
@Verak: Warum stresst du dich selbst? Es wird sich ja nichts ändern. Nvidia oder AMD machen doch mehr oder weniger das selbe?

Ob nun Nvidia die Leute abzieht (was ja nun hinreichend bekannt ist) oder nicht, ändert erstmal nichts am Kaufverhalten. Ist wie bei Apple, es ist einfach der Fable zu Marke. Ob es dir nun passt oder nicht, ist es so. Und ganz recht, wie ich mein Geld aus dem Fenster werfe, ist meine Sache!

Können wir nun diese immer wiederkehrende Schleife nun verlassen?
 
Ich sehe schon, der Thread ist wieder komplett ausm Ruder geraten. Lasst doch jeden kaufen was er mag, ausserdem geht es hier nicht um eine Kaufberatung, denn der TE hat die 2060 schon gekauft, noch geht es darum um über Nvidia vs AMD zu diskutieren.
Der Thread ist meiner Meinung nach sowieso schon beim start unnötig gewesen, wie ich vorher schon erwähnt hatte, nur, macht ihr es mit dieser ewig und nie endenden Diskussion nicht besser.
Ihr wisst doch alle selber wie verhärtet die Fronten sind, also lasst dem TE seinen Spaß und gönnt es ihm auch mal hier darüber zu schreiben, obwohl ich gesagt habe der Thread ist unnötig, habe ich später gesehen wie sich der TE über die Karte freut, es sei ihm verdammt nochmal gegönnt.
Ist ja nicht so, als seien alle erstellten Threads hier sinnvoll, ich wünsche ihm auf jeden Fall viel viel Spaß mit der Karte, auch wenn du irgendwann mal die Settings ein ticken stärker runterfahren musst, drauf gesch... Hab einfach deinen Spaß.
 
Wir leben immer noch in einer Demokratie mit freier Meinungsäußerung oder ? und in einem Forum wie diesem, wo es um Hardware geht äußere ich diese entsprechend im Kontext deines tollen Produkts welches du dir zugelegt hast und wo AMD so etwas macht, würde ich gerne von dir belegt sehen.

Ist halt nicht alles jubeltrubel heiterkeit so wie man es sich gerne wünschen würde, du hast den Thread hier aufgemacht, dann leb auch damit das man dich für deine Kaufentscheidung kritisiert.
 
Es ist dein Recht, deine Meinung zu äußern, das will dir auch keiner streitig machen, nur du wiederholst dich langsam. Es wird nervig. In der Vergangenheit hat AMD bestimmt mal was daneben gehauen, oder? (War auch mehr oder weniger nur so daher gesagt ^^).
 
Nur zur Info, nicht das dahingehend ein falsches Bild entsteht von wegen Fanboy gehabe ... vor meiner R9 390 hatte ich drei Nvidia Karten und davor im Wechsel fast jede Generation eine ATI eine Nvidia. Meine erste Nvidia war eine RivaTNT in Verbund mit einer 3Dfx Voodoo1+2 und danach folgte eine Geforce Generation nach der anderen. Aber das was Nvidia seit der GTX970 un dem Speicherdebakel und dessen Kommunikation mit den Kunden abzog, von den Treibertricksereien davor mal abgesehen, sie mit Gsync und dem Aufpreis auf ihre Synctechnologie von mehr als 200€ gegenüber AMD und dann den Preissteigerungen bei den Karten ab Maxwell bis dato.

Ist für mich Nvidia der letzte Drecksladen und wenn ein jeder weiter die ******* käuft und unterstützt, brauch man sich nicht wundern wenn x60er Modelle irgendwann mal bei 600€ und mehr anfangen. Weil Nvidia es sich einfach raus nimmt, aufgrund weil die Chefetage und dessen Aktionäre nicht den Hals voll bekommen und ein jeder dann meint rum zu heulen weil er sich PC gaming nicht mehr leisten kann und daraufhin auf Konsolen ausweicht und Firmen wie AMD ihre GPU sparte weg rationalisieren weil einfach kein Umsatz für Entwicklung und Forschung mehr rein kommt.

Mal schauen wie es nach Turing 2021 weitergeht und x60 Modelle zum Release 500€ aufwärts kosten und man selbst dann noch mit 6GB Vram abgespeist wird, weil reicht ja für FullHD noch.
 
Zuletzt bearbeitet:
@Verak, ich kann dich verstehen, nur mich dann mehr oder weniger schon so "herb" anzugehen, bringt mich auf die Plame. Ich habe versucht, immer höflich zu Antworten. Also würde ich dich bitten, mich nicht so anzugreifen.
 
Zuletzt bearbeitet:
Hier die ersten beiden Videos:

Anthem
YouTube

Resident Evil 2
YouTube

Die beiden Videos wurden eben auf YT geladen. Die Qualität kann sich nach einiger Zeit verbessern.

Thema Lautstärke, das Video folgt wohl noch heute bzw. morgen.

Video zu: 2060 Unter Last
3DMark TimeSpy

YouTube

3DMark:

Grafikpunkte: 7338
CPU: 6674

4k.png
 
Zuletzt bearbeitet:
nett aber ohne hwinfo64 Einblendung recht egal
Die Vram Angabe in resi2 re ist zu ignorieren das spiel benötigt maximal 5,3gb
lediglich beim streaming kanns ab ultra texturen Ruckeln (wegen der HDD)
dafür muss man aber kräftig dauernd laufen sobald alles geladen ist verschwinden diese.
anthem verwendet frostbyte engine die dynamisch die qzualuitäöt anpasst
das lässt sich kaum abschalten und EA geht hier Strikt nach vram größe
Und vsync verwendet man nicht die eingabe verzögerung ist grauenhaft
Wenn FPS limit dann den limiter in games oder per riva turner
 
Die 6GB VRAM der RTX 2060 werden insbesondere in höheren Auflösungen zum Bottleneck werden, wenn man die Details anpasst kann man dann aber auch noch gut spielen. Es muss ja nicht immer Ultra sein und die RTX 2060 ist gerade in WQHD ja auch keine Karte für Ultra-Ambitionen.
Du hast ein gutes System mit viel Systemspeicher und auch das kann einiges kompensieren, wenn die Engines darauf ausgelegt sind. Mit 16GB RAM könnte es dann wiederum eng werden.

Naja egal. ich wünsche viel Spaß mit der Karte. Gegenüber der GTX 970 ist sie ein Schlachtschiff und performed locker doppelt so flott.
 
Zurück