Also bei aller Liebe für AMD: Schau mal in die Steam-Hardwarestastik, dann weißt Du dass das maximal Wunschdenken ober eben grober Unfug ist.In die Miningrigs - Gamer nutzen AMD!
Mit ein paar Abstrichen kann man auch mit ner Nvdia Gang ordentlich spielen. Aber du hast Recht, AMD ist viel besser.In die Miningrigs - Gamer nutzen AMD!
Zur Abwechslung könnte man doch einfach mal ganz erwachsen einen Konsens finden und einfach die aktuelle Lage so hinnehmen wie sie ist. Man bekommt von beiden Herstellern schöne Hardware, jeder davon hat aber so seine Schönheitsfehler...
Also bei aller Liebe für AMD: Schau mal in die Steam-Hardwarestastik, dann weißt Du dass das maximal Wunschdenken ober eben grober Unfug ist.
Ja, das ist doch das Problem von AMD: Für 379€ könnten sie an ihren wöchentlichen Aktionstagen hier bestimmt nicht 15 sondern 1500 verkaufen! Und das auf globaler Ebene 2 Monate ... die Zahlen würden danach anders für Nvidia aussehen! Nur ... AMD kanns nicht ...Dumme 6600xt gibt's für unter 480..
Ich hab meine sogar für 379 bekommen
... auch Interessant zu hören, weil, meine Vega kann natürlich kein Raytracing ...diesen Raytracing Müll können die komplett einstampfen, braucht kein Mensch und ist kein Argument für nvidia.
Switch läuft mit Nvidia....Nimmt man die Konsolen dazu, hat NV keine 10% Anteil.
Weil es in deinem tollen Battlefield 2042 fehlt, ist RT also Müll? Und was ist mit all den bisherigen RT Titeln? Oder den kommenden wie Dying Light 2, Stalker 2, Bright Memory: Infinite und Guardians of the Galaxy? Entweder bist du ein salty AMD Nutzer oder technikverdrossen, dass es schon weh tut.Man sieht es ja schon am neuen BF2042, kein Raytracing.
Bei Bf5 hat man es noch sinnlos gehyped.
diesen Raytracing Müll können die komplett einstampfen, braucht kein Mensch und ist kein Argument für nvidia.
Tja, warum wohl?
Der einzige Vorteil von AMD-Karten ist das sie besser reifen, aber davon hat man nur was wenn man die Karten lange behält, und selbst dann macht es auch wenig Unterschied ob man im neusten Spiel nun 15 oder 20 FPS hat.
Auch Cyberpunk kratzt nur an der Oberfläche dessen, was mit Raytracing möglich ist. Dafür braucht es aber ein Vielfaches der heutigen Leistung. Die braucht es bereits, um nur die aktuellen Raytracing-Effekte in nativer Auflösung zu erhalten.Der "Müll" ist nur leider die Zukunft und die sich Verbreiten wird, je mehr der Karten, die im Verkehr sind, Raytracing beherrschen.
Cyberpunk 2077 hat gezeigt, wohin die Reise geht.
Und noch ein Killerfeature für alle, die gerne alte DX9 Perlen auspacken: AA-BitsNVDEC, CUDA, DLSS (!), meist schneller bei Simulatoren/Early-Access/Nischengames/Modding, schnelleres Raytracing (halber Pluspunkt weil leistungsmäßig eh noch lange nicht altagsfähig im Mainstream)..
Das ist ein moderner Mythos, der damit zusammen hängt, dass die AMD Karten oft wesentlich mehr VRAM hatten, als die von Nvidia. Wenn man mehr VRAM hat, z.B. die GTX 670/680 4GB oder die GTX 980Ti, dann dreht sich das ganze ins Gegenteil und Die Nvidiakarten altern besser (eine Fury X sieht seit längerem kein Land mehr, gegen eine Standard GTX 980Ti, obwohl die Fury X einmal 10% schneller war).
Wirklich problematisch ist bei AMD, dass sie die Treiber relativ früh einstellen. Die Fury X war z.B. keine 6 Jahre alt.
Wert seine Karte extrem lange behalten möchte, der ist mit einer Nvidiakarte, die sehr viel VRAM hat, am besten beraten. EVGA gibt auf seine Karten 10 Jahre Garantie und Zotac 5 Jahre. Das ist ein weiterer Grund, die klar für Nvidia spricht.
Für AMD spricht, dass die Karten oft gut bestückt sind, was den VRAM angeht.