Beste Grafikkarte für 1080p gaming mit Reserven für 4K gesucht

Wie es am Ende wird muss man sehen. Fakt ist aber tatsächlich dass AMD Stand Heute kein DLSS Äquivalent und die angekündigte Lösung kein Releasedatum hat.
"wenn es denn irgendwann mal kommt" hätte ich wohl fett schreiben müssen ;) .
 
Wobei mir die 3070 in der Gegenwart durchaus gute Dienste leisten würde solange ich nur auf FHD zocke. Für FHD wäre die 3070er sogar etwas überdimensioniert. Das sind zumindest die Worte eines Testers von der Gamestar Hompepage und nicht meine. Sieht man sicht Youtube footage von games in 1080 p über die 3070er an so finde ich die würde für meine Zwecke sehr gute Arbeit in FHD leisten.

Eine 3070 wird auch in einigen Jahren noch gut für WQHD und bedingtes UHD tauglich sein. 1080p ist der Karte zu mindestens jetzt zu trivial und man landet leicht im Overhead, wenn der Prozessor zu langsam ist.

Zu der VRAM-Debatte......Alle schmeißen sich derzeit auf die 8GB VRAM, testen aber selbst nur recht wenig und wiederholen meist nur das Gerede von anderen. Bei einem Computer handelt es sich immer noch um ein intelligentes System, wo nicht nur VRAM, sondern auch RAM und Sekundärspeicher wichtig sind. Hat man nur eine HDD, 16GB RAM und dann 8GB VRAM, möchte aber Spiele mit Grafikmods spielen oder neue Games in zu hohen Einstellungen bei hohen Auflösungen, dann hat man u.U. die A-Karte gezogen. Hat man aber 32GB RAM und eine SSD kann es wieder ganz anders ausschauen und das Spiel läuft trotzdem sehr fluffig.
 
Zu der VRAM-Debatte......Alle schmeißen sich derzeit auf die 8GB VRAM, testen aber selbst nur recht wenig und wiederholen meist nur das Gerede von anderen.
Also ich hab eine 3070 und 6700XT hier.
Die sind quasi gleich schnell in FHD, die NV Karte rennt auch noch früher in den Overhead bei modernen Proezssorfressern und 8Gb sind für UHD in Zukunft schlicht zu wenig, das kann man sich auch nicht mehr schön saufen. Eine 6700Xt ist für rund 800 kaufbar, eine 3070 mit Glück und schnellem Finger für 1100.

Bei der aktuellen Marktlage macht das absolut null Sinn. Die 3070 ist schlicht zu teuer. Sich auf Softwarefuddel in Zukunft zu verlassen ist gewagt, egal ob jetzt FidelitySuperFuddel oder FuddelLS.
Hat man aber 32GB RAM und eine SSD kann es wieder ganz anders ausschauen und das Spiel läuft trotzdem sehr fluffig.
RAM und SSD bringen dir überhaupt nichts wenn der Vram am Ende ist außer Diashow und ploppende Texturen.
 
Also ich hab eine 3070 und 6700XT hier.
Die sind quasi gleich schnell in FHD, die NV Karte rennt auch noch früher in den Overhead bei modernen Proezssorfressern und 8Gb sind für UHD in Zukunft schlicht zu wenig, das kann man sich auch nicht mehr schön saufen. Eine 6700Xt ist für rund 800 kaufbar, eine 3070 mit Glück und schnellem Finger für 1100.

Bei der aktuellen Marktlage macht das absolut null Sinn. Die 3070 ist schlicht zu teuer. Sich auf Softwarefuddel in Zukunft zu verlassen ist gewagt, egal ob jetzt FidelitySuperFuddel oder FuddelLS.

Für UHD sind beide Karten auf Dauer zu langsam und in WQHD kommt der Speicher zumindest jetzt noch nicht wirklich zum Tragen. Kann natürlich sein, dass die Entwickler in Zukunft mit Texturen und sonstigen VRAM-lastigen Kram nur um sich schmeißen, aber das ist dann doch eher unwahrscheinlich, da auf die breite Masse hin entwicklelt wird und das ist nunmal langsam aber sicher WQHD und einer GPU mit 6-8GB VRAM.

RAM und SSD bringen dir überhaupt nichts wenn der Vram am Ende ist außer Diashow und ploppende Texturen.

Ab Punkt X stimmt das natürlich. Bis dahin ist das System aber intelligent genug entsprechend auszulagern und nutzt das auch aktiv. Seit der Geforce GTX 6100 mit Turbo-Cache (2004) ist das gewissermaßen schon so und wurde seit dem immer weiter optimiert. Achtet nur kein Schwein drauf, dass auch der VRAM in den normalen RAM ausgelagert werden kann.

Aber wie schon geschrieben, ab Punkt X klappt das natürlich auch nicht mehr und die Performance bricht immer weiter ein. Wenn man dann schon mit dem normalen RAM im Limit hängt, da der zu klein dimensioniert ist und auch da schon ausgelagert werden muss hat man natürlich die A-Karte gezogen.
 
Für UHD sind beide Karten auf Dauer zu langsam
Grundsätzlich ja, aber er sucht auch keine Goldrandlösung sondern etwas was zu seinem aktuellen Setup passt, Ihn aber auch nicht direkt in die Bredoullie bringt wenn er das Panel aufrüstet. Mit dem hohen Vram kann er die guten Texturen und die hohe Auflösung aufrechterhalten, spart ein wenig bei Schatten und Beleuchtung in den Settings und dann fluppt das auch bei modernen Titeln ohne Probleme auf einer 6700XT.

Wenn die 3070 10-12Gb hätte, wäre die Karte klar zu bevorzugen. Denn die 3070er lassen sich hervorragend undervolten. Ohne diesen Pferdefuß wäre die Karte uneingeschränkt zu empfehlen. 8GB passen aber einfach nicht zum Zeithorizont des TE.
 
Hätte aber eben nicht gepasst, da die Architektur da einen Riegel vorschiebt. Mit 10GB hätte man doch wieder eine 3080 (320bit) und mit 12 GB die 3080Ti (384bit) bzw. eine RTX 3060 (192bit). 16GB wären wohl der sinnvollste Weg gewesen und eine 3080 mit 20GB, die 3090 als neue Titan V mit 48GB GDDR6 für 2500+€ und eher interessant für Leute im Content-Bereich.
 
Das SI ist in der Architektur Ampere afaik nicht mehr an die Shader gebunden. Man hätte also relativ problemlos einen Chip mit einem breiteren Interface und der selben Shader Anzahl bauen können. Hielt man in der Planung aber für unnötig.
Das "geht nicht" ergibt sich erst daraus wie die Chips jetzt konfiguriert sind. Nicht aus der Architektur selbst, die gibt das her.
 
Das SI ist in der Architektur Ampere afaik nicht mehr an die Shader gebunden. Man hätte also relativ problemlos einen Chip mit einem breiteren Interface und der selben Shader Anzahl bauen können. Hielt man in der Planung aber für unnötig.
Das "geht nicht" ergibt sich erst daraus wie die Chips jetzt konfiguriert sind. Nicht aus der Architektur selbst, die gibt das her.
Richtig, man wollte es so. Ist schlicht günstiger.
 
Schonmal in nem anderen Thread gepostet, aber nicht auf große Begeisterung gestoßen, da halt hier sich Eigenbauer in der Ehre gekränkt fühlen :D

Nachteile Dell typsich: Kühlung (Temperatur/Lautstärke) und Aufrüstbarkeit. Dafür erstklassiger Support.

Wenn es dir drum geht JETZT die meiste Leistung fürs Geld zu kriegen, kommst du da nicht drumrum. RTX3070 kosten teilweise fast allein so viel. Dell hat aber langfristigere Verträge und kann dadurch die für normale Verhältnisse etwas hohen Preise halten und aktuell kehrt sichs eben um.
 
@FetterKasten Danke für die Empfehlung mit dem Dell. Der sieht nicht unterssant aus. Dell ist eigentlich keine schlechte Marke. Hatte mal vor Ewigkeiten einen Laptop von denen der nicht übel war. Würde allerdings ziemlich schnell heiß. Weiß aber nicht ob das bei den heutigen Dell Geräten auch noch ein Problem ist oder nicht..


Die weiteren Meinungen hier sind echt interssant. Wobei in Zeiten der Grafikkarten Knappheit echt nicht wählerisch sein darf. Möchte ein gutes System für das hier und jetzt und da ist ein Rechner mit einer 3070er oder mit einer Amd rx 6700 schon ausreichend für meine Zwecke. Sofern man sich einen aufrüstbaren Rechner gönnt könnte man in 3 bis 4 Jahren immer noch upgraden wenn es in Richtung reines 4k geht. Bis dahin aht sich vielleicht auch die Grafikkarten Knappheit etwas gelegt.

Bis dahin geht es mir ja rein ums 1080p gaming mit ein wenig Reserven für 4k. wenn es auf 4k nicht perfekt läuft wäre das ein Manko mit dem ich keine Probleme hätte.

Muss außerdem zugebeben das ich bei meiner Rechung die 1440p gaming Monitore außer Acht gelassen habe. Da gibt es auch ein paar gute Modele und hätte auch nichts dagegen einzuwenden meinen 1080p Monitor gegen einen 1440p Monitor auszutauschen. Es muss nicht unbedingt 4k sein.

Das wäre dann auch meine Grafikkarten Auswahl wieder etwas releatvieren. Im 1440p Bereich würden die 3070er oder die Rx6700 ja noch eine gute Figur machen sofern ich die Kommentare richtig verstanden habe?
 
Zuletzt bearbeitet:
Sind beides gute Karten für WQHD. 1440p ist ein guter Mittelweg, da man da 144Hz-Monitore mit guter Technik schon für kleineres Geld bekommen kann, bei UHD wird es schon schwieriger.
 
Zurück