Bert2007
PCGH-Community-Veteran(in)
Hab bisher nichts von 3GB Modulen gelesen. Was nicht heißt das es nicht kommt. Super, das wäre interessantIrgend ne Folie von Hynix ... wenn ich dem Tweet wiederfinde post ich es.
Hab bisher nichts von 3GB Modulen gelesen. Was nicht heißt das es nicht kommt. Super, das wäre interessantIrgend ne Folie von Hynix ... wenn ich dem Tweet wiederfinde post ich es.
War ne Folie von Micron nicht Hynix.Hab bisher nichts von 3GB Modulen gelesen. Was nicht heißt das es nicht kommt. Super, das wäre interessant
Das Blöde ist ja, dass oft mehr belegt wird, als wirklich nötig wäre, um Zugriffe per PCIe zu sparen. Deswegen kann man mit Karten, die viel Speicher haben so schlecht darüber urteilen, ob ein Spiel mit weniger Speicher laufen würde.Ja auch mit Forspoken testen bzw ein Benchmark mit einbeziehen.Denn wenn man durch die Stadt läuft, hab ich bei 1440p knapp 14GB an VRam verbrauch.
Ja, Chips mit 1,5GB oder eben 3GB geistern schon länger durch das Netz. DDR5 hat ja schon entsprechende Produkte. Sollte eigentlich nur eine Frage der Zeit sein. Würde vieles einfacher machen.Hab bisher nichts von 3GB Modulen gelesen. Was nicht heißt das es nicht kommt. Super, das wäre interessant
Forspoken (und Halo Infinite) habe ich ganz bewusst nicht in diesen Test aufgenommen, da hier das Streaming so stark die Bildqualität opfert, dass 8-GiB-Karten gerne mal besser laufen als solche mit 10, 12 oder 16 GiB - weil so viel weggelassen wird. Das kommt in einer der vorherigen Abhandlungen zur Sprache:Vielleicht kann
@PCGH_Raff
Ja auch mit Forspoken testen bzw ein Benchmark mit einbeziehen.Denn wenn man durch die Stadt läuft, hab ich bei 1440p knapp 14GB an VRam verbrauch.
Es läuft zwar sehr gut, schluckt aber auch viel Speicher. ?✌️
Also 96bit 8GB GDDR7 ?Das Blöde ist ja, dass oft mehr belegt wird, als wirklich nötig wäre, um Zugriffe per PCIe zu sparen. Deswegen kann man mit Karten, die viel Speicher haben so schlecht darüber urteilen, ob ein Spiel mit weniger Speicher laufen würde.
Ja, Chips mit 1,5GB oder eben 3GB geistern schon länger durch das Netz. DDR5 hat ja schon entsprechende Produkte. Sollte eigentlich nur eine Frage der Zeit sein. Würde vieles einfacher machen.
Wie soll das gehen?Also 96bit 8GB GDDR7 ?
Das wären dann 9GBAlso 96bit 8GB GDDR7 ?
Das ist ironisch gemeint. Damit Nvidia auch bei 8GB bleiben kannWie soll das gehen?
Also kein Gejammer mehr das nur 8GB verbaut sind. Gibt 1GB mehrDas wären dann 9GB
Aber bei nem BA107 (oder wie auch immer der Chip heißen wird) gut möglich.
Benutze hald Nvidia image sharpening, oder noch besser bei 1080p Lade dir einen sweetfx/reshade grafik mod drüber da kannst du auch die schärfe höher einstellen.Diablo 4 sieht wirklich wild aus. Das sieht nach riesiger Pfuscherei seitens Blizzard aus.
Auch verstehe ich die Beschreibung der Texturdetails in D4 nicht - Hoch soll schon für Bildschirme mit WQHD gedacht sein. Ich spiele auf FullHD und finde das die Texturen auf Ultra vollkommen ok aussehen, auf Hoch gibt es aber schon einige Abstriche und auf Mittel - was lt. Blizzard das Setting für FullHD sein soll - gibt es nur noch Matsch. Für die dagebotene Grafik komplett Hahnebüchen. Hoffe da kommt noch ein Optimierungspatch.
Okay. Alles klar.Forspoken (und Halo Infinite) habe ich ganz bewusst nicht in diesen Test aufgenommen, da hier das Streaming so stark die Bildqualität opfert, dass 8-GiB-Karten gerne mal besser laufen als solche mit 10, 12 oder 16 GiB - weil so viel weggelassen wird. Das kommt in einer der vorherigen Abhandlungen zur Sprache:
Eingebundener InhaltYoutubeAn dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.Eingebundener InhaltYoutubeAn dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
MfG
Raff
Mit Reshade zaubere ich die Texturen aber nicht schön. Um die Bildschärfe geht es mir eig. nicht, sondern um die ekeligen Texturen auf Mittel, die Blizzard als geeignet für Monitore bis FullHD ansieht. Ich spiele eh auf Hoch und lebe halt mit den Rucklern zwischendurch. Würde lieber auf Ultra spielen, da sieht alles schön knackig aus aber die Ruckelei ist mir zu wild. Habe auch schon DLSS probiert aber ich kann dem nichts abgewinnen, FullHD ist keine optimale Ausgangslage für Upsacling imo. Ich finde das das Spiel auf FullHD mit 8GB VRAM klar kommen müsste und hoffe das Blizz die Performance noch nach oben gehievt bekommt.Benutze hald Nvidia image sharpening, oder noch besser bei 1080p Lade dir einen sweetfx/reshade grafik mod drüber da kannst du auch die schärfe höher einstellen.
Wenn sie bei einer informierten Kaufentscheidung helfen sollen, müssen sie sich halt am aktuellen Markt orientieren. Und da steht als Konkurrenz bei 450€ ungefähr die 6800, die genauso viel Speicher hat, aber langsamer rechnet, deutlich mehr verbraucht und weniger Features hat. So gesehen wäre das sogar relativ günstig.Nach eurem Test-Video komme ich leider erneut zu meiner ganz persönlichen Schlussfolgerung, dass eure Preiseinschätzung (wieder mal) komplett weltfremd sind.
Sehe ich auch so. Zuerst dachte ich, dass hier unbedingt die 16 GB-Variante protegiert werden soll und trotz meines Einwandes, muss ich - mit Blick auf zukünftige Spiele - diesen Pluspunkt der 16GB-Variante so stehen lassen. Trotzdem werde ich mich, als sehr seltener Spieler auf einer 1080er Auflösung, für die kleine Karte entscheiden.Ungewöhnliche vergleich mittels frametimes