Radeon RX 6800XT: Asus ROG STRIX mit 2,5 GHz Boost?

Aus was besteht denn ein "Shader"?


Bei welchem workload? Meine 3090 schafft auch 2100+ bei 350W. Ist dann halt nur 1080p und wieso überhaupt 2 GHz?
Int und FP Einheiten, nur Nvidia macht ein auf Bulldozer und doppelt die FP Einheit und behauptet es sind jetzt doppelt soviele.
Aber man sieht ja wieviel Leistung davon nur auf die Straße kommt.
4352 2080TI
Vs
10496 3090

Nur 43% mehr Leistung
vergleicht man beide mit OC sind es bei der 3090 nur noch 33% mehr gegenüber der 2080TI.


Aber hey 141% mehr Shader und effizient eine Kartoffelbatterie.
 
klar doch was Ray Tracing und DLSS 2.0 angeht auch was ;-)
Und davon abgesehen ich brauche die Karte eh nur für maximal 4 Jahre dann kaufe ich mir einen komplett neuen Rechner. Und da ich vor 4 Jahren keinen spieletauglichen Rechner noch hatte habe ich in den letzten knapp 4 Jahren 38 Spiele von 2005 angefangen bei Sniper Elite I nachgeholt. Da reicht sie auch für die nächsten weiteren 30 Spiele ab 2015 wo ich jetzt schon bin. Für die Spiele ist es wie eine Grafikkarte aus der Zukunft. Ich kann alles auf maximum einschalten und habe dennoch bis 174 FPS und bei einem WQHD Monitor brauche ich auch nicht mehr als 10 GB VRAM. Meine letzte 970er GTX hatte 4 GB VRAM und konnte auf maximum Details die Spiele mit 74 FPS spielen. Ich brauche keine 16 GB RAM oder 24 wie es die 3090er hat ja wofür denn ? Geschweige der Tatsache dass ich kein AMD Fan bin weil es billiger ist aber weniger Leistung hat. Ist leider meistens so
Ich glaube kaum das die 10 GB einer 3080 4 Jahre reichen. Gehe davon aus wenn spiele rein für die Ps5 und X Box entwickelt werden, ohne rücksicht nehmen zu müssen auf die ps4 und one das der vram verbauch exorbitant steigen wird. Geschichte wiederholt sich das hatten wir schon alles. Klar für 2 Jahre geht es vielleicht noch, aber das man überhaupt auf sowas spekuliert bei einer high end Karte sollte einem schon zu denken geben.

Das ist mindestens eine 700€ Karte und man kann nicht sagen das es reichen wird, sowas hatten wir noch nie. Bei der 1080TI wussten wir die 11 GB sind zukunftssicher ohne Probleme wird der das packen das erwartet man ja auch von high end. Aber die 3080? Sorry aber wenn man Nvidia das Signal gibt selbst bei high end schon kompromisse eingehen zu müssen ob das gut endet? Die Tatsache das die 3070 nur 8gb vram hat ist an lächerlichkeit nicht mehr zu überbieten.

Die super versionen werden bestimmt wieder toll aber die verdanken wird an auch nur wieder Amd und sonst niemanden. Suchs dir aus bist du Gamer oder nvidias marktanalysespielzeug.

Noch was zu RT bis auf control und exodus gibt es kein spiel das mich auch nur ansatzweise interessiert das in 2 Jahren. Hast du in watch dogs schon den vergleich gesehen ? das rt ist ein witz. wie in battlefield v, da hat es auch niemanden interessiert den pfützen ankucken wo kommen wir den dahin.

DLSS 2 ist gut aber ob ich dafür auf 6gb vram verzichte und geld spare und mehr normale Leistung habe ? Sorry aber gerade auf die 4 Jahre die du anpeilst wärst du mit eine amd karte besser beraten. Ist ja nicht so als hätte da amd nicht auch was in der mache klar bestimmt nicht so gut wie bei nvidia. Aber seien wir mal erlich was brauchen wir Leistung? alles andere is nur beiwerk und nicht relevant momentan. Glaube kaum das die welt untergeht wenn du in watch dogs legion die pfützen schlechter reflektieren du dafür 40 fps mehr hast.

Bis zur nächsten gen wird rt weiterhin noch in den kinderschuhen stecken und sogar darüber hinaus. Falls es nicht komplett stirbt bis wir wirklich mehr leistung haben für komplettes echtes RT. Dann nheme ich liber leistung die in JEDEM spiel umsetzbar ist in bessere bildqulaiät oder von mir aus bei 80% gpu leistung bei 140 fps fest zu nageln denn da hat man das flüssigste erlebniss wenn die gpu nicht auf 100% läuft.

alter das am handy tippen :ugly::ugly::ugly:
 
Zuletzt bearbeitet:
Ich glaube kaum das die 10 GB einer 3080 4 Jahre reichen. Gehe davon aus wenn spiele rein für die Ps5 und X Box entwickelt werden, ohne rücksicht nehmen zu müssen auf die ps4 und one das der vram verbauch exorbitant steigen wird. Geschichte wiederholt sich das hatten wir schon alles. Klar für 2 Jahre geht es vielleicht noch, aber das man überhaupt auf sowas spekuliert bei einer high end Karte sollte einem schon zu denken geben.
Wenn ich wie gesagt mit den 4 GB der GTX 970er bis jetzt ausgekommen bin wieso sollen bitte die 10 GB plötzlich nicht mehr reichen ? Die GPU läuft nicht mal auf 60 % und das bei nur 53 Grad. Also erkläre mir mal das so als ob ich 10 Jahre alte wäre wieso die 10 GB nicht reichen sollten wenn ich eben nur auf WQHD und nicht 4K zocke und ich habe mal ein Video bei Youtube gesehen wo eine 2080er Ti vs eine Titan ausgespielt wurde und dort liefen die spiele auf 8k sogar flüssig und bedenke bitte eins ich habe die letzten 4 Jahre gebraucht um alle Spiele, die ich mir gekauft habe bis Jahr 2015 durch zu spielen. In den nächsten 4 Jahren schaffe ich also gerade mal Spiele bis maximal 2021 oder 2022 durch zu spielen. Und dann ist er ein neuer Rechner fällig.
Das mit der Auslastung der GPU schaue ich mir nochmal gleich ein wenn ich ROME II - Total War auf extreme Details in WQHD spiele und auch wie heiß sie wird. Aber beim letzten Nachschauen war die Grafikkarte gerade zur etwas mit 60 % wie gesagt ausgelastet. Das war Black Ops III und das Spiel lief mit 174 fps. ROME II ist von 2014 aber als Strategiespiel frißt es mehr von allem als die Ego Shooter
 
Zuletzt bearbeitet:
Int und FP Einheiten, nur Nvidia macht ein auf Bulldozer und doppelt die FP Einheit und behauptet es sind jetzt doppelt soviele.
Aber man sieht ja wieviel Leistung davon nur auf die Straße kommt.
4352 2080TI
Vs
10496 3090

Nur 43% mehr Leistung
vergleicht man beide mit OC sind es bei der 3090 nur noch 33% mehr gegenüber der 2080TI.


Aber hey 141% mehr Shader und effizient eine Kartoffelbatterie.
Sind es auch aber nur unter Floting Point und du siehst aktuell noch gar nicht was Ampere auf die Straße bringt!
Weil Spiele auf neue Architekturen Optimiert werden müssen, sobald man Fp in Spielen mehr einsetzt was passiert dann logischerweise.
Doom ist nicht mal das optimale aber es zeigt gut was zu erwarten ist in Zukunft.
Es kommt auch daran wo man es Vergleicht in 1440p hat Ampere nicht verloren, übrigens wurde genau das immer bei AMD begrüsst
der heilige "Fine Wine".

Nur das bei AMD ohne Optimierung die Leistung im Ars... war, Ampere bringt aber Leistung auch jetzt auf die Straße und kostet sogar weniger.

Ach 141% mehr Shader und nur so wenig mehr Leistung? willst mal Fermi gegen Kepler machen?
Fermi 2.0 512 Shader
GTX 780ti 2880 Shader
Beides Vollausbau!

Willst also solche dummen Vergleiche machen? Weist was Fermi hat sogar für die Shader Anzahl sogar recht starke Daten in Cuda.
Also rechne dir mal schön aus wieviel schneller Kepler hätte sein müssen. Shader sind nicht gleich Shader RTX 2080ti Shader
sind nicht vergleichbar mit 3090 Shadern. Die 2080ti hat zwar komplexere Shader die aber bei hoher last deutlich Einbrechen, gerade
bei RT merkt man das deutlich.

Was meint ihr den immer neue Architektur ist neu und nicht das gleiche in größer. Ampere ist deutlich weiter Entwickelt und eben nicht mehr
Vergleichbar. Pascal und Turing war nur ein sehr kleiner Schritt, doch Ampere ist wirklich mal was neues.
Das man jetzt kritisiert das Shader nicht genauso sind wie die alten ist eher ein Verständnis Problem. Man kann einfach nicht 10K Turing Shader nehmen weil die Leistung und Verbrauch dann überhaupt nicht mehr gehen würden. Außerdem liegt der schnitt zwischen 42% und 55% zu 2080ti Leistung. 33% hat alleine schon die 3080 wenn man 1440p ins Spiel bringt, macht aber nur 4K sind es 40%. Was genau die Steigerung ist die erwartet wurde und sogar als hoch angesehen wurde!
Genauso hätte man von Fermi auf Kepler schließen müssen das man ein paar 100% schneller ist.
Warum sollte das so sein? Weil es mehr Shader sind? Das sagt gar nichts aus dann wäre AMD schon ewig schneller und Ampere hat aktuell noch ein Problem die GPU überhaupt auszulasten.

Sobald Spiele auf Fp Leistung optimiert werden, wird Ampere deutlich zulegen. Dann kann sich AMD wieder beschweren das es zu viel Fließkomma ist und es sei ja Unfair. Amperes wirkliche Leistung werden wir erst später sehen, selbst Turing hat zugelegt.
 
"Die XTX soll ja AMD exklusiv sein , kann durchaus sein , dass Sapphire als ehemaliger Werkshesteller von ATI
da eine exklusive Rolle spielt"
 
DLSS 2 ist gut aber ob ich dafür auf 6gb vram verzichte und geld spare und mehr normale Leistung habe ?
Genau da liegt das Problem!

Hätten die diese 3080 mit 20GB VRAM gebracht , Ey "Shut up and take my Money", eben weil ich fürs 4K Gaming DLSS 2 extrem interessant finde und es echt gerne hätte. Aber auf keinen Fall kauf ich mir eine Karte mit 10GB VRAM.

Jetzt hoffe ich das AMD da morgen echt einen raus haut, RT ist mir "noch" relativ egal
 
Sobald Spiele auf Fp Leistung optimiert werden, wird Ampere deutlich zulegen. Dann kann sich AMD wieder beschweren das es zu viel Fließkomma ist und es sei ja Unfair. Amperes wirkliche Leistung werden wir erst später sehen, selbst Turing hat zugelegt.

wenn sie AMD Karten die Rohleistung in bekannter Form auf die Straße bringen, dann wird niemand anfangen wegen Nvidia seine Engine umzumodeln, wenn doch mit der bestehenden Technik auch in Zukunft alles super läuft auf Konsole und PC
 
Ich kaufe mir die 6800 XL und mit Tweaks und MorePowerTool, OC und UV und Co. wird diese (fast) die Leistung der 6800XT erreichen - Bastelspaß inklusive. Ich freue mich
Auf die Ergebnisse bin ich gespannt.
Bastelspaß ist viel Wert, da kann man manchmal mit "langsamer" Hardware mehr Spaß haben als mit high end shit.
Mein Xeon hat irgendwie auch mehr Spaß gemacht als jetzt der 10850K, der ist ne olle Zicke :crazy:
 

Sind es auch aber nur unter Floting Point und du siehst aktuell noch gar nicht was Ampere auf die Straße bringt!
Weil Spiele auf neue Architekturen Optimiert werden müssen, sobald man Fp in Spielen mehr einsetzt was passiert dann logischerweise.
Doom ist nicht mal das optimale aber es zeigt gut was zu erwarten ist in Zukunft.
Es kommt auch daran wo man es Vergleicht in 1440p hat Ampere nicht verloren, übrigens wurde genau das immer bei AMD begrüsst
der heilige "Fine Wine".

Nur das bei AMD ohne Optimierung die Leistung im Ars... war, Ampere bringt aber Leistung auch jetzt auf die Straße und kostet sogar weniger.

Ach 141% mehr Shader und nur so wenig mehr Leistung? willst mal Fermi gegen Kepler machen?
Fermi 2.0 512 Shader
GTX 780ti 2880 Shader
Beides Vollausbau!

Willst also solche dummen Vergleiche machen? Weist was Fermi hat sogar für die Shader Anzahl sogar recht starke Daten in Cuda.
Also rechne dir mal schön aus wieviel schneller Kepler hätte sein müssen. Shader sind nicht gleich Shader RTX 2080ti Shader
sind nicht vergleichbar mit 3090 Shadern. Die 2080ti hat zwar komplexere Shader die aber bei hoher last deutlich Einbrechen, gerade
bei RT merkt man das deutlich.

Was meint ihr den immer neue Architektur ist neu und nicht das gleiche in größer. Ampere ist deutlich weiter Entwickelt und eben nicht mehr
Vergleichbar. Pascal und Turing war nur ein sehr kleiner Schritt, doch Ampere ist wirklich mal was neues.
Das man jetzt kritisiert das Shader nicht genauso sind wie die alten ist eher ein Verständnis Problem. Man kann einfach nicht 10K Turing Shader nehmen weil die Leistung und Verbrauch dann überhaupt nicht mehr gehen würden. Außerdem liegt der schnitt zwischen 42% und 55% zu 2080ti Leistung. 33% hat alleine schon die 3080 wenn man 1440p ins Spiel bringt, macht aber nur 4K sind es 40%. Was genau die Steigerung ist die erwartet wurde und sogar als hoch angesehen wurde!
Genauso hätte man von Fermi auf Kepler schließen müssen das man ein paar 100% schneller ist.
Warum sollte das so sein? Weil es mehr Shader sind? Das sagt gar nichts aus dann wäre AMD schon ewig schneller und Ampere hat aktuell noch ein Problem die GPU überhaupt auszulasten.

Sobald Spiele auf Fp Leistung optimiert werden, wird Ampere deutlich zulegen. Dann kann sich AMD wieder beschweren das es zu viel Fließkomma ist und es sei ja Unfair. Amperes wirkliche Leistung werden wir erst später sehen, selbst Turing hat zugelegt.
Der Wundertreiber wird's bestimmt richten. Zusammen mit dem Wunderefresh bei TSMC in zwei Monatenm. Dann sieht AMD kei Land mehr! NVidia ist nicht Intel.

Was vergessen? Ach ja: 450W Leistungsaufnahme spielt überhaupt keine Rolle, solange die Leistung stimmt. Mit Flow-Through-Design sowieso kein Problem. Und mit DLSS3.0 spielt die Shaderanzahl sowieso keine Rolle mehr - das neuronale KI-Netzwerk ist der absolute Gamechanger und die Zukunft. Da wird sich AMD noch ganz schön umschauen.

:lol:
 
@gaussmath wie siehts eigentlich bei AMD und z.B. Blender aus?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
@14:34
Ist AMD vergleichbar schnell oder sogar schneller?

Wo ist eigentlich @Chatstar ? Den hab ich schon Ewigkeiten nicht mehr gesehen :ugly:
 
Sind es auch aber nur unter Floting Point und du siehst aktuell noch gar nicht was Ampere auf die Straße bringt!
Weil Spiele auf neue Architekturen Optimiert werden müssen, sobald man Fp in Spielen mehr einsetzt was passiert dann logischerweise.
Doom ist nicht mal das optimale aber es zeigt gut was zu erwarten ist in Zukunft.
Es kommt auch daran wo man es Vergleicht in 1440p hat Ampere nicht verloren, übrigens wurde genau das immer bei AMD begrüsst
der heilige "Fine Wine".

Nur das bei AMD ohne Optimierung die Leistung im Ars... war, Ampere bringt aber Leistung auch jetzt auf die Straße und kostet sogar weniger.

Ach 141% mehr Shader und nur so wenig mehr Leistung? willst mal Fermi gegen Kepler machen?
Fermi 2.0 512 Shader
GTX 780ti 2880 Shader
Beides Vollausbau!

Willst also solche dummen Vergleiche machen? Weist was Fermi hat sogar für die Shader Anzahl sogar recht starke Daten in Cuda.
Also rechne dir mal schön aus wieviel schneller Kepler hätte sein müssen. Shader sind nicht gleich Shader RTX 2080ti Shader
sind nicht vergleichbar mit 3090 Shadern. Die 2080ti hat zwar komplexere Shader die aber bei hoher last deutlich Einbrechen, gerade
bei RT merkt man das deutlich.

Was meint ihr den immer neue Architektur ist neu und nicht das gleiche in größer. Ampere ist deutlich weiter Entwickelt und eben nicht mehr
Vergleichbar. Pascal und Turing war nur ein sehr kleiner Schritt, doch Ampere ist wirklich mal was neues.
Das man jetzt kritisiert das Shader nicht genauso sind wie die alten ist eher ein Verständnis Problem. Man kann einfach nicht 10K Turing Shader nehmen weil die Leistung und Verbrauch dann überhaupt nicht mehr gehen würden. Außerdem liegt der schnitt zwischen 42% und 55% zu 2080ti Leistung. 33% hat alleine schon die 3080 wenn man 1440p ins Spiel bringt, macht aber nur 4K sind es 40%. Was genau die Steigerung ist die erwartet wurde und sogar als hoch angesehen wurde!
Genauso hätte man von Fermi auf Kepler schließen müssen das man ein paar 100% schneller ist.
Warum sollte das so sein? Weil es mehr Shader sind? Das sagt gar nichts aus dann wäre AMD schon ewig schneller und Ampere hat aktuell noch ein Problem die GPU überhaupt auszulasten.

Sobald Spiele auf Fp Leistung optimiert werden, wird Ampere deutlich zulegen. Dann kann sich AMD wieder beschweren das es zu viel Fließkomma ist und es sei ja Unfair. Amperes wirkliche Leistung werden wir erst später sehen, selbst Turing hat zugelegt.

Ich weiß, es ist halb offtopic, aber dein Geschwurbel erinnert mich an das, was man derzeit zu Corona lesen kann. Irgendwelche willkürliche Zahlendrehereien und Namedropping, aus dem Kontext gerissen, um zu erklären, warum deine präferierte Lösung die einzig wahre ist. Ehrlich gesagt wirkt dein Text wirr und konfus.

Fantasievolle Zahlenspielereien sind nutzlos – das Ergebnis zählt. Wenn die AMD Karten in der realen Welt mehr Leistung für Zocker auf den Tisch bringen, hat NVIDIA ein Problem. Selbst wenn Big Navi "nur" gleichzieht, hat NVIDIA ein Problem. Und selbst, wenn Ampere 10% stärker als Big Navi sein sollte, hat NIVDIA ein Problem, wenn AMD über den Preis und die Verfügbarkeit angreift.

Die bisherigen Benchmarks sehen gut für AMD aus, somit erklärt sich auch der recht verzweifelt wirkende NVIDIA-Paperlaunch. Da hilft auch keine Schönrechnerei.
 
Wenn ich wie gesagt mit den 4 GB der GTX 970er bis jetzt ausgekommen bin wieso sollen bitte die 10 GB plötzlich nicht mehr reichen ? Die GPU läuft nicht mal auf 60 % und das bei nur 53 Grad. Also erkläre mir mal das so als ob ich 10 Jahre alte wäre wieso die 10 GB nicht reichen sollten wenn ich eben nur auf WQHD und nicht 4K zocke und ich habe mal ein Video bei Youtube gesehen wo eine 2080er Ti vs eine Titan ausgespielt wurde und dort liefen die spiele auf 8k sogar flüssig und bedenke bitte eins ich habe die letzten 4 Jahre gebraucht um alle Spiele, die ich mir gekauft habe bis Jahr 2015 durch zu spielen. In den nächsten 4 Jahren schaffe ich also gerade mal Spiele bis maximal 2021 oder 2022 durch zu spielen. Und dann ist er ein neuer Rechner fällig.
Das mit der Auslastung der GPU schaue ich mir nochmal gleich ein wenn ich ROME II - Total War auf extreme Details in WQHD spiele und auch wie heiß sie wird. Aber beim letzten Nachschauen war die Grafikkarte gerade zur etwas mit 60 % wie gesagt ausgelastet.
Du hängst mit deinem tollen 6700K knallhart im CPU Limit.
Kein Wunder das deine Temperaturen so niedrig sind,die Karte langweilt sich zu Tode bei deiner Konfiguration.
Da hat man klassisch Geld zum Fenster raus geworfen.
Das dir eine 970 bisher in WQHD ausgereicht hat, zeigt mir das du unempfindlich gegenüber Microruckeln zu sein scheinst.
Du hast jetzt Ruckeln aufgrund zu wenig VRAM durch Tearing ersetzt, dazu kommt die viel zu schwache CPU für eine 3080 !
Ein echter Fachmann :D
 
Du hängst mit deinem tollen 6700K knallhart im CPU Limit.
Kein Wunder das deine Temperaturen so niedrig sind,die Karte langweilt sich zu Tode bei deiner Konfiguration.
Da hat man klassisch Geld zum Fenster raus geworfen.
Das dir eine 970 bisher in WQHD ausgereicht hat, zeigt mir das du unempfindlich gegenüber Microruckeln zu sein scheinst.
Du hast jetzt Ruckeln aufgrund zu wenig VRAM durch Tearing ersetzt, dazu kommt die viel zu schwache CPU für eine 3080 !
Ein echter Fachmann :D
Das war nachdem ich aus dem Spiel raus war. Ich muss mal mit dem Affengriff während das Spiel läuft in den Taskmanager und da mal nachsehen wie heiß sie wird. Und die andere Karte hatte keine MicroRuckeln :-) Wie gesagt da hatte ich 74 Bilder. Mal sehen vielleicht kaufe ich mir dennoch mal einen neuen Rechner wenn der 5950x bei uns draußen ist und ja ich achte mal auch auf die CPU Auslastung im Manager. Wobei früher bei der alten Karte wenn ich ihn während des Spiels aufgerufen habe war die CPU alles andere als am Limit sondern was mit 60 % und die Grafikkarte war bei 96 %. Ach so und noch etwas. Die Meisten bei Alternate schreiben auch dass die Grafikkarte unter 65 Grad bleibt. Wie gesagt ich muss die Temp checken wenn das Spiel noch läuft und ich nicht draußen schon bin
 
Zuletzt bearbeitet:
Mal sehen vielleicht kaufe ich mir dennoch mal einen neuen Rechner wenn der 5950x bei uns draußen ist und ja ich achte mal auch auf die CPU Auslastung im Manager.
Das wäre dann aber rein zum zocken die nächste Schaufel Geld fürs Fenster...
Nur zum spielen ist eine 8 oder vtl. noch 12 Kern CPU mehr als ausreichend, gerade in WQHD und höher.
Es sei denn man will es einfach aus Gründen des "haben wollens" haben :ugly:
 
Das wäre dann aber rein zum zocken die nächste Schaufel Geld fürs Fenster...
Nur zum spielen ist eine 8 oder vtl. noch 12 Kern CPU mehr als ausreichend, gerade in WQHD und höher.
Es sei denn man will es einfach aus Gründen des "haben wollens" haben :ugly:
Ja aber wenn ich mir so eine Rechner mit einer High End CPU kaufe habe ich längere Zeit doch was von und davon mal abgesehen ich mache auch Videobearbeitung da kann es nicht schaden wobei ich muss sagen ich würde lieber bis 2021 warten bis der neue DDR 5 Speicher auch draußen ist der mit 5000 Mhz anfängt als noch DDR4 mit 3800 Mhz zu kaufen
Deine CPU muss nicht bei 100% sein um zu limitieren.
Das mag sein aber für viele Spiele reicht heutzutage ein 4 Kerner doch noch denn so wenige Spiele unterstützten 8 Kerner es ist dann nur zukunftssicher. Beides habe ich zur Genüge hier und bei der Gamestar gelesen. Weißt Du mein Anliegen war. Ich habe noch mit diesen 4 Kerner eine starke CPU also reicht nur eine neue Grafikkarte und dann habe ich die nächsten 4 Jahre ca Ruhe da ich derzeit eh noch Spiele aus dem Jahr 2015, 2016 am nachholen bin. Wenn ich die 30 Spiele bis 2021 durch habe wäre eben ein neuer Rechner mit einer dann neuen Grafikkarte fällig. So habe ich mir das gedacht und die hier also die 3080er habe ich nur gekauft weil in Spielen schon von 2014 wie ROME II - Total War er mir bei meiner alten Grafikkarte dann gesagt hat bei WQHD denn diesen Monitor habe ich auch erst seit Mai. Zu wenig Grafikkartenspeicher. Jetzt habe ich das 2,5 fache und das Spiel läuft nicht nur mit 154 FPS sondern auch auf WQHD und alle Grafikdetails auf Extreme wo früher nur Ultra möglich war. Ich denke so lange ich die Spiele am nachholen bin reicht für die Spiele bis 2021 auch ein 4 Kerner. Und dann beides vom Feinsten neu kaufen also einen Komplettrechner aus Einzelkomponenten wieder
 
Zuletzt bearbeitet:
Zurück