Meine (immer noch laufende) 1080 Ti hatte auch 2016 schon 11 GBWat will man auch mit 8GB Vram…das ist so 2016, wir sind aber 6 Jahre weiter.
Schreib am besten einen Brief an Jensen und äußere dich wie enttäuscht du bist. Und danach direkt den nächsten Speicher und IO Krüppel kaufen, irgendwie muss man die Kunden ja bei der Stange halten.Wenn man sich letztes Jahr für viel Geld eine geholt hat und das Spiel damit nicht auf high läuft. Dann hat man schon Grund um sich aufzuregen. Finde ich schon.
Sorry, aber das geht an der Realität vorbei. Im Zeitalter von 1500€ Grafikkarten geben Konsolen den technischen Fortschritt in puncto Grafik vor, denn bei reinen High-End-PC-Titeln wäre das Zielpublikum zu klein.Nur weil das Spiel technisch kompletter Müll ist, ist die GPU nicht schlechter.
Es gibt nicht nur die 7000er Radeons. ^^ Meine 6900XT hat auch 16 GB VRAM.Das Problem bei den Radeons mitz 16GB und 20GB VRAM sind ja falls man nicht seinen eigenen Strom erzeugt, die laufenden Betriebskosten. Will man sich irgendwann nochmal eine neue Karte kaufen, aber nur falls, ist die 4070 Ti der angenehmere Wegbegleiter. Alleine die Ergebnisse mit der 3050 Mobile können sich ja schon sehen lassen...es gibt viel zu tun.
So siehts aus.Wat will man auch mit 8GB Vram…das ist so 2016, wir sind aber 6 Jahre weiter.
Nach allem was ich so gehört habe, muss das Spiel aber auch auf der PS5 stellenweise massive Framerate Einbrüche haben und auch im allgemeinen technisch kein schönes Bild abliefern.Da hatte doch mal jemand die Spekulation geäußert, dass stark auf Direct-Streaming optimierte Konsolentitel auf dem PC wie Grütze laufen könnten (zumindest relativ zur gebotenen Grafikqualität), wenn der Entwickler so faul ist, das Speichersubsystem einfach 1:1 zu übernehmen...
42 Watt im Idle
Wer hat das behauptet?Das ist schon eine extrem lustige Ironie. Bei der 10GB RTX 3080 haben die Fanboys immer behauptet, dass 10GB mehr als genug sind,
Die genannten Herren hatten doch Recht! Es ist jetzt Anfang 2023 und damit sind - aus Sicht 2020 - die nächsten Jahre doch gut gewesen mit 8GB. Sie sind nun halt vorbei. Wer kann heute schon sagen, was in 2-3 Jahren von (schlecht optimierten) Spielen so benötigt wird? Und ne 4090 wird in 3 Jahren auch nur noch Mittelklasse sein...8GB reichen doch völlig die nächsten Jahre ,würde 2020 oft gesagt Grade im Zusammenhang mit der 3070 und der 3080?
Die genannten Herren sollen Mal ein aktualisiertes Statement dazu abgeben.
Ich bin hier bei 3,5 Watt im Idle für die Grafikkarte, also die Werte sind ohne Details zu kennen, identlisch mit der 4070 Ti. Allerdings arbeitet der externe Monitor hier auch "nur" mit 75 Hz und das in 1080p. Die iGPUs von Intel landen beim Nichtstun bei 0,000 bis 0,002 Watt, sind also nochmal um Faktor 1.000 effizienter.Im 2 Monitor Betrieb mit einem Samsung UHD 60Hz und Gigabyte WQHD 144 Hz, das finde ich ganz ok. Die vorherige RX 5700 XT hat im selben Setting gut 35 Watt Idle verbrauch gehabt.
? Lustig bis FUNNY ?! Die RTX 4090 WIRD bereits gegen Ende 2024 zum Alten Eisen gehören so wie wir zugeschmissen werden von der Egomanisch gierigen Chip Industrie wie es sie überall und nun auch bereits in Jerusalem Intel Chips produziert.Die genannten Herren hatten doch Recht! Es ist jetzt Anfang 2023 und damit sind - aus Sicht 2020 - die nächsten Jahre doch gut gewesen mit 8GB. Sie sind nun halt vorbei. Wer kann heute schon sagen, was in 2-3 Jahren von (schlecht optimierten) Spielen so benötigt wird? Und ne 4090 wird in 3 Jahren auch nur noch Mittelklasse sein...
Ist das so gravierend? Meines Erachtens nehmen sich die beiden Grafikkarten aus energetischer Sicht nicht so viel, so dass ein erheblicher Unterschied auf der Stromrechnung entsteht.Das Problem bei den Radeons mitz 16GB und 20GB VRAM sind ja falls man nicht seinen eigenen Strom erzeugt, die laufenden Betriebskosten. Will man sich irgendwann nochmal eine neue Karte kaufen, aber nur falls, ist die 4070 Ti der angenehmere Wegbegleiter. Alleine die Ergebnisse mit der 3050 Mobile können sich ja schon sehen lassen...es gibt viel zu tun.
Okay, das sehe ich anders, weshalb ich die Radeons nicht kaufen würde, die 4070 Ti dagegen umso lieber.Ist das so gravierend? Meines Erachtens nehmen sich die beiden Grafikkarten aus energetischer Sicht nicht so viel, so dass ein erheblicher Unterschied auf der Stromrechnung entsteht.
Der Anfang vom Spiel lief auf der PS5 eigentlich richtig gut (Ich spiel IM Qualitätsmodus).Nach allem was ich so gehört habe, muss das Spiel aber auch auf der PS5 stellenweise massive Framerate Einbrüche haben und auch im allgemeinen technisch kein schönes Bild abliefern.
Du meinst die Leute die nur in 1440p spielen und sich deswegen auch keine Custom RTX 3090 für 2000€ gekauft haben?8GB reichen doch völlig die nächsten Jahre ,würde 2020 oft gesagt Grade im Zusammenhang mit der 3070 und der 3080?
Die genannten Herren sollen Mal ein aktualisiertes Statement dazu abgeben.
Meine RX 6800 hat auch 16GB...das hindert den VRam Krüppel RTX 4070TI aber keineswegs sie aber sowas von zu vernaschen.Es gibt nicht nur die 7000er Radeons. ^^ Meine 6900XT hat auch 16 GB VRAM.