Ma Tacheles zum thema Vram (3080/6800XT)

P

pseudonymx

Guest
3080 vs 6800XT.
Grad durch die aktuellen benchmarks ja nen heiß disskutiertes Thema....

Ich persönlich hatte mich beim vorstellungsevent der Ampere karten eigentlich schon für ne Radeon entscheiden.... 10GB Vram erscheinen mir eigentich zu wenig für 3-4 Jahre UHD gaming....
Die 3080 ist und bleibt nach den tests jetzt die schnellere Karte. Auch wenn die 6800XT die 3080 durchaus in einigen Games schlagen kann....
Auch unter berücksichtigung vom SAM macht die 3080 unterm strich ne bessere figur. Auch wenn die 3080 sich die mehrleistung offensichtlich mit mehr Stromverbrauch erkauft..... Der stromverbrauch ist für mich hier und jetzt aber nicht von belang....

In einigen Tests zeigt sich deutlich das der Nativ höhere durchsatz des GDDR6X auf der 3080 gerade in UHD deutliche vorteile gegenüber dem Infinity Cache von AMD Hat....Weil die riesigen UHD Texturen den cache der AMD karten einfach voll machen... und der vorteil der bei 1080p oder WQHD noch einer ist... plötzlich nichtig ist. Wir reden hier aber von wenigen Frames... jenseits von 60FPS in UHD (ohne Raytracing)

Die frage bleibt eine die schon in einigen Themen besprochen wurde: Reichen 10GB Vram für die nächsten Jahre aus um Games in UHD zu spielen?.... NEIN höchstwarscheinlich nicht..... zumindest wenn man die regler alle nach rechts ziehen Will....

Aber jetzt kommt ja der komplizierte Teil ;) : Die Karten bringen in UHD (ohne raytracing) beide nicht so viel Leistung das man in den nächsten jahren alle neuen aufwendigen Titel in Maximalen Details/einstellungen spielen kann. Allein von der Rohleistung... mal ganz ab davon ob der Vram dann voll ist oder nicht. Man wird also höchstwarscheinlich in 1 oder 2 oder meinetwegen 3 jahren mit den Einstellungen runter gehen müssen in UHD um auf 60FPS zu kommen.
Gerade dann könnte die 3080 neben der höheren speicherbandbreite, mit DLSS glänzen. Reicht die Rohleistung der 6800XT irgendwann nicht mehr bringt auch der größere Vram keine vorteile mehr, bei AMD bleibt dann nur SAM und eventuell FidelityFX....

Auf der einen seite steht Nvidia.. mit "zu wenig" Vram aber mehr Rohleistung und DLSS... auf der anderen Steht AMD mit ausreichend VRAM aber weniger Rohleistung und ohne KI unterstützdes "downsampling".
Finde die Kaufentscheidung (wobei ich ja noch zeit hab bei der mießen verfügbarkeit/preisen auf beiden seiten) extremst schwer.... Nachdem ich jetzt aber einiges Footage von kommenden games mit und Ohne Raytracing gesehen hab... muss ich sagen ist mir Raytracing doch ein wenig wichtiger geworden....

in nem szenario in dem ein spiel mit 10GB vram nicht mehr auskommt und auch die rohleistung nicht mehr für 60FPS reichen, sinken bei ner 3080 die Framerates BRACHIAL.... dann müsste man DLSS nutzen... wobei ne 6800XT eventuell nur noch 55FPS bringt aber dafür Nativ UHD weil Vram ausreichend.

Was noch zu bedenken ist... in 2 Jahren könnte DLSS so weit sein, das es wirklich nurnoch extrem geringe unterscheide zwischen Nativ und DLSS gibt....

Jetzt frage ich euch.... Nehmt mal an ihr wärt weder Nvidia noch AMD besonders zugetan... (ihr seid halt kein fanboy/girl XOXO) Und hättet nen AM4 Sytsem mit Ryzen 5000 CPU.... Und bräuchtet ne Karte für UHD @ 60FPS... Beide Karten wären verfügbar und die 3080 genau 50€ Teurer....selbes Custom modell, selbe kühlung..... was würdet Ihr, mit dem oben geschriebenen berücksichtigt, Kaufen?

Gerne mit Argumenten die ich eventuell nicht berücksichtigt habe (FidelityFX könnte wirklich ne DLSS alternativ werden, das "SAM" das Nvidia plant... eventuell kommts für AMD und Intel CPUs.... evnetuell nur für Intel???)
 
Jetzt frage ich euch.... Nehmt mal an ihr wärt weder Nvidia noch AMD besonders zugetan... (ihr seid halt kein fanboy/girl XOXO) Und hättet nen AM4 Sytsem mit Ryzen 5000 CPU....
Das trifft auf mich quasi 1:1 zu.

Und deine Probleme sehe ich genauso. 10GB sind [mir] zu wenig. Egal was NV da drumherum veranstaltet, die Highend-Karte mit weniger als 16GB fällt im Jahre 2021 einfach aus. 12GB vRAM hatte ich 2016 schon (öfter voll), damit braucht mir 5 Jahre später keiner mehr kommen. Aber eine 6800XT hat ja entsprechend geringere RT-Leistung, (noch) kein DLSS usw. wie du schon sagst - aber im Ernst: Braucht man das denn? Es gibt gefühlt keine 10 Spiele die RT benutzen obwohl das seit 2+ Jahren ja alles sofort demnächst kommt und blablubb - effektiv sehen kann ich so gut wie gar nichts außer Techdemos und Showcases. Bis RT eine nennenswrte Rolle und Verbreitung hat sind wir bei RX8000 und RTX5000.

Ich sehe das recht einfach: Wenn man unbedingt genau jetzt ein konkretes Spiel hat das man ohne Einschränkung mit allem Bremborium zocken will (faktisch gehts eigentlich nur um Cyberpunk) dann musste ne RTX3080 nehmen. In allen anderen Fällen ist es praktisch egal mit vRAM-Vorteil für die RX6000.

Da ich selbst absolut keine Eile habe (und alle meine aktuellen Spiele auch auf meiner RTX2080 noch ausreichend performen) sehe ich das entspannt: Irgendwann werden die Karten in allen Varianten lieferbar und günstiger sein, bestenfalls gibts vielleicht eine 3080Ti mit 20GB für unter 1000€. Dann überlege ich mir wieder ob ich mich irgendwie bewege - bis dahin: Abwarten. Denn wirklich überzeugt haben mich weder RTX3000 noch RX6000.
 
SAM wird genauso für NVIDIA kommen.
AMD‘s Upscaling muss sich erst noch beweisen, mit DLSS 2.0 ist NVIDIA ein ziemlicher Schlag gelungen.
Für mich steht RT Leistung + DLSS + normale Mehrleistung + deutlich höhere Rohleistung (wird evtl. relevant werden) gegen mehr VRAM auf AMD‘s Seite.
Ich würde keine von beiden kaufen, da beide nicht komplett sind, die 3090 ist es hingegen, ist aber absurd teuer, die 3080 Ti wird der Sweetspot dieser GPU Gen.
Ich würde dir zur 3080 raten, wenn du bereit bist die Texturdetails auch mal selten eine Stufe runter zu drehen, bist du es nicht bleibt nur die 6800 XT (oder eben die kommende 3080 Ti).

Bezüglich des Preises solltest du daran denken, dass die 6800 XT Referenz quasi bereits EOL ist.
Bei NVIDIA ist es die FE nicht und wenn du Glück hast kannst du dort eine abgreifen.
Die Custom Preise werden auch nächstes Jahr nicht in die Nähe der UVP's kommen, denn weshalb auch? Die Kunden kaufen schließlich auch ausreichend zu höheren Preisen.

Hätte ich keine Turing Ti hätte ich sowieso schon eine 3090 gekauft, aber so war mir das Upgrade zu klein und eine 4080 2022 mit Multichipdesign dürfte da schon attraktiver sein und man kommt von der absurd teuren High End Version weg (wenn man jede Gen aufrüsten will bleibt dann jedes Mal nur das Topmodell für ein halbwegs passables Upgrade).
 
Ich halte bei min 650 € nicht von Upscalling Technik ala DLSS für Einsteiger und Mittelklasse ja . Dazu kommt das VRAM Thema . Gerade in allen neuen AAA Spielen ist AMD Top auch Raytracing wird bei allen Crossplattform Titeln Titeln eher auf AMD entwickelt also zur Zeit kann man meiner meinung nach zwischen 500 - 800 € nur zu AMD greifen ,es sei denn man streamt und nutzt Nvenc .
 
Das trifft auf mich quasi 1:1 zu.

Und deine Probleme sehe ich genauso. 10GB sind [mir] zu wenig. Egal was NV da drumherum veranstaltet, die Highend-Karte mit weniger als 16GB fällt im Jahre 2021 einfach aus. 12GB vRAM hatte ich 2016 schon (öfter voll), damit braucht mir 5 Jahre später keiner mehr kommen. Aber eine 6800XT hat ja entsprechend geringere RT-Leistung, (noch) kein DLSS usw. wie du schon sagst - aber im Ernst: Braucht man das denn? Es gibt gefühlt keine 10 Spiele die RT benutzen obwohl das seit 2+ Jahren ja alles sofort demnächst kommt und blablubb - effektiv sehen kann ich so gut wie gar nichts außer Techdemos und Showcases. Bis RT eine nennenswrte Rolle und Verbreitung hat sind wir bei RX8000 und RTX5000.

Ich sehe das recht einfach: Wenn man unbedingt genau jetzt ein konkretes Spiel hat das man ohne Einschränkung mit allem Bremborium zocken will (faktisch gehts eigentlich nur um Cyberpunk) dann musste ne RTX3080 nehmen. In allen anderen Fällen ist es praktisch egal mit vRAM-Vorteil für die RX6000.

Da ich selbst absolut keine Eile habe (und alle meine aktuellen Spiele auch auf meiner RTX2080 noch ausreichend performen) sehe ich das entspannt: Irgendwann werden die Karten in allen Varianten lieferbar und günstiger sein, bestenfalls gibts vielleicht eine 3080Ti mit 20GB für unter 1000€. Dann überlege ich mir wieder ob ich mich irgendwie bewege - bis dahin: Abwarten. Denn wirklich überzeugt haben mich weder RTX3000 noch RX6000.

Ja was Raytracing angeht gehts echt Faktisch NUR um Cyberpunk :lol: Es schaut einfach in Night Ciddy 10 mal geiler aus.... Im grunde bin ich auch der Meinung: DLSS und Raytracing werden in 2 oder 3 Gens so richtig Ready sein.
Muss aber sagen Was maximale Details in UHD angeht ist mir net nur cyberpunk wichtig... spiele Racer und einige RPGs like AC oder so... da sollte das auch n paa jährchen funktionieren.... gerade wegen den Open world Games scheint mir 10GB zu wenig... DAS ist der grund warum ich mit der 3080 am strugglen bin... und leider hab ich GRÖßTE eile XD Aber werde ja so oder so gezwungener maßen noch warten müssen

SAM wird genauso für NVIDIA kommen.
AMD‘s Upscaling muss sich erst noch beweisen, mit DLSS 2.0 ist NVIDIA ein ziemlicher Schlag gelungen.
Für mich steht RT Leistung + DLSS + normale Mehrleistung + deutlich höhere Rohleistung (wird evtl. relevant werden) gegen mehr VRAM auf AMD‘s Seite.
Ich würde keine von beiden kaufen, da beide nicht komplett sind, die 3090 ist es hingegen, ist aber absurd teuer, die 3080 Ti wird der Sweetspot dieser GPU Gen.
Ich würde dir zur 3080 raten, wenn du bereit bist die Texturdetails auch mal selten eine Stufe runter zu drehen, bist du es nicht bleibt nur die 6800 XT (oder eben die kommende 3080 Ti).

Bezüglich des Preises solltest du daran denken, dass die 6800 XT Referenz quasi bereits EOL ist.
Bei NVIDIA ist es die FE nicht und wenn du Glück hast kannst du dort eine abgreifen.
Die Custom Preise werden auch nächstes Jahr nicht in die Nähe der UVP's kommen, denn weshalb auch? Die Kunden kaufen schließlich auch ausreichend zu höheren Preisen.

Hätte ich keine Turing Ti hätte ich sowieso schon eine 3090 gekauft, aber so war mir das Upgrade zu klein und eine 4080 2022 mit Multichipdesign dürfte da schon attraktiver sein und man kommt von der absurd teuren High End Version weg (wenn man jede Gen aufrüsten will bleibt dann jedes Mal nur das Topmodell für ein halbwegs passables Upgrade).

Geht garnicht so sehr um die UVP der FEs.... hab für ne 3080 wie für ne 6800xt n Limit... und das der 3080 wäre halt 50€ höher XD

Ne Nvidia Founders kommt mir net in mein Aktuelles Projekt NIEMALS.... 12Pin, nvidia wir machen wa was neues, strombuchse :motz: da bleib ich lieber auf vega56 kleben :lol:

Maybe kommt ja "bald" ne 3080ti.... bissl mehr leistung 16 oder 20gb Vram und 1000€ wär Gekauft.... nur eben net FE... also eher 1100€ und dann kommts auf die leistung an... wenn die zwischen 3080 und 3090 liegt dann is auch schon wieder P/L RIP


Bin am überlegen wenn mal verfügbar so für 550€ nen günstiges 3070 custom modell zu kaufen.... n guter freund würde mir die in paa monaten für n hunni weniger abkaufen.... als überbrückung wärs mir das wert (wobei die vega56 schon überbrückung von ner gtx980 auf ne UHD taugliche karte sein sollte :D).... aber dann kann ich auch die games die ich spielen will n bissl aufschieben... andererzeits zocke ich im Winter deutlich am Meißten.... :heul: 2020... n echt mieses jahr.... hardware net verfügbar und ich lasse am 4.12 meine 20ger jahre hinter mir :heul: :lol:
 
Zuletzt bearbeitet von einem Moderator:
im besten fall parität(mit entsprechendem unterbau SAM) für RADEON im normalen 3D zu 3080, RT mit DLSS bereits ab 2070S 6800XT überlegen.
nV entscheidung zum VRAM ist pragmatisch und reicht tatsächlich in allen spielen(UWQHD+)aus, mit luft nach oben.
 
im besten fall parität(mit entsprechendem unterbau SAM) für RADEON im normalen 3D zu 3080, RT mit DLSS bereits ab 2070S 6800XT überlegen.
nV entscheidung zum VRAM ist pragmatisch und reicht tatsächlich in allen spielen(UWQHD+)aus, mit luft nach oben.


Reicht in allen Games aus Aktuell ja.. in zukunft sicher auch... aber es geht darum erstmal wieder alle Grafikeinstellungen auf anschlag zu drehen.... ich Brauche das nicht Unbedingt.... ich komme seit monaten mit ner vega56 klar manchmal in 3200X1800 manchmal eben mit mittleren settings (die oft eh auch noch wunderschön sind).... aber wir sprechen hier von minimum mal 650€ die ich augeben will.... nen WaKü block soll auch drauf.... wbei ich durchaus bereit bin ne striy OC zu kaufen + nen wasserkühler.... für die richtige karte bin ich bereit 1000€ inklu wasserkühler zu berappen.... Dann sollte "alles auf Ultra" schon ne weile gehen in UHD Nativ (ohne raytracing und upscaling)

Aktuell sehe ich 10GB für Natives UHD auch nicht als Problem an... aber gibt es ertmal genug karten aufm markt die mehr als 10GB haben... dann werden auch die Texturen wieder größer... Zukunftssicher für UHD sind 10GB also Keinesfalls... die frage ist ja... Wann tritt die Zukunft ein wann reichen 10GB vram auch mei gemößigten einstellungen nicht mehr und man MUSS auch ohne raytracing auf DLSS zurückgreifen... nicht weil die rohleistung nicht reicht sondern der Vram voll Läuft? :ka:.... 4 Jahre sollte die Karte aureichen ohne in jedem neuen game erstmal die auflösung zu veringern....

Klar wenn jez in 3 Jahren nix mehr geht dann würde schon nomma soviel kohle inne hand nehmen... Gaming gehört zu meinen Hobbys und das kost nunmal geld... aber ersma haben :lol: Für mein AKtuelles definitiv unvernünftiges Projekt hab ich das ganze jahr überstunden geschoben und eisern gespart... das will einfach wohl überlegt angelegt sein.... gerade was die Grafikkarte angeht.... der unterbau wird wenn er fertig ist denke ich die nächsten 6 jahre Minimum keine probleme machen.... eher 8 wie ich hoffe..... Aufzurüsten ist da bis auf die Graka dann nichts mehr.... :)
 
Zuletzt bearbeitet von einem Moderator:
GTA5
4x MSAA, maxed out 5.3GB bei 240W stabile 75FPS (VSYNC)
8x MSAA, maxed out 6.4GB bei 330W mit nur noch 60-70FPS

wie gesagt; eher geht der chip ein, als der speicher aus
 
Ich weiß nicht warum das mit dem VRAM immer zur Rohleistung dazugeschlagen wird.
Wenn genug VRAM vorhanden ist: Dann gibt das EXTRA-Schärfe und EXTRA-Details ohne großen Leistungs-Drawback.
D.h. selbst wenn die Karte 10x zu lahm ist um Dein Game in UHD auszuführen, Du musst weder auf Textur-Details noch auf Textur-Schärfe verzichten solange genug VRAM vorhanden ist, Du darfst von mir aus auf Auflösung, und Geometrie-Details und die 1000 Post-Prozessing-Effekte und Anti-Aliasing verzichten. Aber selbst ein Game in LOW mit Ultra-Texturen sieht besser aus als ein Game in LOW mit Medium-Texturen^^

Das bezahlst Du ein mal, und profitierst davon über die gesamte Lebenszeit der Graka. Und eventuell verlängerst Du diese auch noch.
 
Zuletzt bearbeitet:
Ich würde dennoch die AMD kaufen. Zum einen soll eine Alternative zu DLSS kommen und wenn einem der Strom egal ist, kann man der AMD deutlich besser Sporen geben, da die 3080 einfach schon zu sehr auf Kante genäht ist.

Aber ja, kommende Saison hat AMD ja wieder einen Sprung angekündigt. Wir sind da halt grade in einer Zeit, wo die Karten nur begrenzt lange mithalten können. Und wirklich echtes 4K zum zocken in Höchsteinstellungen mit allen Games ist und bleibt 2020 noch eher ein Traum.
 
Ich weiß nicht warum das mit dem VRAM immer zur Rohleistung dazugeschlagen wird.
Wenn genug VRAM vorhanden ist: Dann gibt das EXTRA-Schärfe und EXTRA-Details ohne großen Leistungs-Drawback.
D.h. selbst wenn die Karte 10x zu lahm ist um Dein Game in UHD auszuführen, Du musst weder auf Textur-Details noch auf Textur-Schärfe verzichten solange genug VRAM vorhanden ist, Du darfst von mir aus auf Auflösung, und Geometrie-Details und die 1000 Post-Prozessing-Effekte und Anti-Aliasing verzichten. Aber selbst ein Game in LOW mit Ultra-Texturen sieht besser aus als ein Game in LOW mit Medium-Texturen^^

Das bezahlst Du ein mal, und profitierst davon über die gesamte Lebenszeit der Graka. Und eventuell verlängerst Du diese auch noch.

Ja Spricht schon Alles für ne 6800XT.... Ins Vram limit zu rennen ist schon Worst case... und das dies in den nächsten 4 Jahren passiert mit ner 3080 @ UHD ist SICHER

Ich würde dennoch die AMD kaufen. Zum einen soll eine Alternative zu DLSS kommen und wenn einem der Strom egal ist, kann man der AMD deutlich besser Sporen geben, da die 3080 einfach schon zu sehr auf Kante genäht ist.

Aber ja, kommende Saison hat AMD ja wieder einen Sprung angekündigt. Wir sind da halt grade in einer Zeit, wo die Karten nur begrenzt lange mithalten können. Und wirklich echtes 4K zum zocken in Höchsteinstellungen mit allen Games ist und bleibt 2020 noch eher ein Traum.

Ja denke auch die Übertaktbarkeit gerade von Einigen Custom modellen wird sehr Brutal sein... Bin auch fast froh am 18. keine FE bekommen zu haben.... Tendiere zu ner Strix oder TUF... sollte ich keine in den ersten Tagen bekommen warte ich auf Vergleiche zwischen einigen OC modellen.... Es muss halt n "beliebtes" sein... nen EK kühler soll da über kurz oder lang schon drauf..... Maybe bleibt die verfügbarkeit ja eh so mieserabel das auch Modelle mit Wakpü block kommen... Asus hat ja für ampere schon modelle angekündigt... und ne Liquid Devil wird ja hoffentlich auch kommen...

Rein wegen Raytracing für Cyberpunk bin ich jez auf den 3080 trichter gekommen XD ansonsten finde ich z.b n bissl downsampling auch net schlimm... gibt einige games die sehen bei mir (vega56 und 43" UHD/HDR) in 3200x1800 und n bissl AA von der pixeldichte annähernd genausi scharf aus wie UHD nativ ganz ohne AA (is einfach bei der vega net drin XD)

Glaube auch ehrlich gesagt nicht das ich mich äergere sollten einige aktuelle games schon auf der 6800xt net auf "alles ultra" laufen habe mir die vega gekauft da mein alter monitor kaputt gegangen ist und durch den akteullen ersetzt wurde.... 1080 war der alte... selbe größe.... kommt mir ja garnicht mehr in die tüte.... hab dann auch AC odiseey gezockt.... 4k nativ. low/mid einstellungen... ~40 FPS.... gar kein problem... immernoch wunderschön..... aber von der nächsten Grafikkarte erwarte ich einfach annähernd "echtes" 4k gaming ..... das hat uns zumindest AMD versprochen
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß nicht warum das mit dem VRAM immer zur Rohleistung dazugeschlagen wird.
Wenn genug VRAM vorhanden ist: Dann gibt das EXTRA-Schärfe und EXTRA-Details ohne großen Leistungs-Drawback.
D.h. selbst wenn die Karte 10x zu lahm ist um Dein Game in UHD auszuführen, Du musst weder auf Textur-Details noch auf Textur-Schärfe verzichten solange genug VRAM vorhanden ist, Du darfst von mir aus auf Auflösung, und Geometrie-Details und die 1000 Post-Prozessing-Effekte und Anti-Aliasing verzichten. Aber selbst ein Game in LOW mit Ultra-Texturen sieht besser aus als ein Game in LOW mit Medium-Texturen^^

Das bezahlst Du ein mal, und profitierst davon über die gesamte Lebenszeit der Graka. Und eventuell verlängerst Du diese auch noch.

Ob man Augenkrebs bei Low + Medium Texturen oder bei Low + Ultra Texturen bekommt macht aber wirklich keinen Unterschied mehr.
Beides nicht auszuhalten.
VRAM ist wichtig sobald man die maximale Grafikqualität möchte, aber die bekommt man sowieso nicht mehr, wenn fast alles auf Low ist.
Es wird eine handvoll Games geben die bei der 3080 auf Ultra Probleme machen solange sie schnell genug ist, wer in diesen Games nicht auf höchste Texturen verzichten möchte muss eben auf eine Karte mit mehr VRAM gehen.
 
Ob man Augenkrebs bei Low + Medium Texturen oder bei Low + Ultra Texturen bekommt macht aber wirklich keinen Unterschied mehr.
Beides nicht auszuhalten.
VRAM ist wichtig sobald man die maximale Grafikqualität möchte, aber die bekommt man sowieso nicht mehr, wenn fast alles auf Low ist.
Es wird eine handvoll Games geben die bei der 3080 auf Ultra Probleme machen solange sie schnell genug ist, wer in diesen Games nicht auf höchste Texturen verzichten möchte muss eben auf eine Karte mit mehr VRAM gehen.

Ich sehs eigentlich auch so.... Lieber paa partikel oder so weniger als Matschtexturen durch dlss oder Texturen runterkurbeln.... VRAM ist denke ich was menge angeht am ende immernoch Meta in UHD.... gerade wenn die GPU am Limit arbeitet....
 
Ich sehe es im großen und ganzen wie Alki. Januar kommt die 3080Ti, mal sehen wie sich die Preise bis dahin entwickeln bzw auch die Verfügbarkeit. AMDs DLSS, sprich Super Resolution so wie sie es nennen, kommt ja demnächst und auch RT für Cyberpunk wirds von AMD geben demnächst (nicht zu release).
Das Game sieht aber auch mit RT off sehr gut aus, man mags kaum glauben, aber schaus dir mal an:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Nvidias Verbrauch und der kleine VRAM; nerven mich persönlich total, selbst mit UV saugen die richtig was aus der Steckdose, für mich persönlich ist das relevant, alles in allem tendiere ich aktuell klar zu AMD, aber die 3080Ti habe ich nicht abgeschrieben. Na ja mal sehen aktuell ist warten angesagt, da man nix bekommt.
In der Ruhe liegt die Kraft, die Zeit spielt uns in die Hände bzw ins Portemonnaie^^
 
Ich sehs eigentlich auch so.... Lieber paa partikel oder so weniger als Matschtexturen durch dlss oder Texturen runterkurbeln....
Ist schon schlimm wenn man mal...wenn es nicht reicht...mal von ultra auf hoch bei den Texturen wechselt.
Den Unterschied hat ja PCGH in Screenshots (natürlich x fache Vergrösserung) festgehalten.
Im laufendem Spiel kaum/nicht zu sehen.
Aber kein Problem damit die Settings auf hoch zu stellen. Es muß ja nicht ultra sein...schaut ja fast gleich aus.

RT+DLSS, daß optisch weit mehr ins Auge sticht, wird von manchen komischerweise als unnütz abgestempelt.

Wo ist eigentlich die vielgepriesene Langlebigkeit? Fast jeder der sich letztes Jahr eine neue Karte gekauft
hat, denkt doch heute schon wieder an eine neue Karte. Einzig die Highend Karten, so wie die RTX 2080Ti, halten
länger...wenn man schon diesen gehobenen Anspruch hat.

Dann können ja alle Karten wie Pascal/Vega/VII/ Navi entsorgt werden. Sie können weder mit der Leistung
mithalten, noch haben sie die Features der neueren Generation.
Leistungs Index.PNG



Die Doppelmoral hier ist zum lachen...wenn es nicht zum weinen wäre.
 
Zuletzt bearbeitet:
Dann können ja alle Karten wie Pascal/Vega/VII/ Navi entsorgt werden. Sie können weder mit der Leistung
mithalten, noch haben sie die Features der neueren Generation.

Genauso schauts aus für UHD gaming.... da is eventuell einzig die 2080ti tauglich.... Alles andere kann inne tonne.... und wenn ich die dexturschärfe veringere sehe ich das auf 43" sehr wohl.... würd ich auf 27 oder 32" zocken wär ich maximal auf WQHD gegangen.... dann hätt ich längst ne 5700xt oder 2070s hier
 
UHD-43"-Vega56...wie passt das dann zusammen?
Du würdest für WQHD eine RX 5700XT/RTX 2070 s als ausreichend empfinden?
Das ist doch genau die Auflösung die einer RTX 3070 gerecht wird und trotzdem wird das Ding verteufelt.
Wer UHD/ultra zocken will, muß eben ganz oben ins Regal greifen.
 
Zurück