• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Resident Evil 2 Remake Technikthread, VRAM, AA, Benchmark.

Gurdi

Kokü-Junkie (m/w)
Da das Spiel technisch ganz interessant ist und die Demo leicht verfügbar mach ich hier mal einen Technikthread zu dem Spiel auf.
Mir gehts es primär um den Vram in dem Spiel, da hier 8GB in WQHD bereits nicht mehr ausreichen im Max Out, wer möchte kann natürlich die Szene auch einfach so Benchmarken.

Wer mitmachen will findet hier die nötigen Tools:
CapframeX zur Auswertung: Releases . DevTechProfile/CapFrameX . GitHub
Ocat zum aufzeichnen der Messungen: Releases . GPUOpen-Tools/OCAT . GitHub
Das Spiel: Die Demo ist kostenlos bei Steam.
Hacktool zum resetten der Demo: Resident Evil 2 Remake Trainer | Cheat Happens PC Game Trainers

Um das detailliert zu illustrieren habe ich hier eine Langzeitaufnahme vom Spiel gemacht. Ich bewege mich da Stellenweise bewusst zügig durch die Areale um das Streaming zu stressen.
Die regelmäßigen Frametime Spikes durch das verwerfen und streamen im Vram sind gut zu erkennen im Graphen oben links. Die Ausleuchtung dürfte leicht kompromittiert sein bei euch beim ansehen des Videos wegen HDR.
YouTube

Interessant sind vor allem die Szenen
bei Minute 6:00 beginnend bis 7:20.Bei Minute 6:18 sieht man einen Vram Kollapse mit entsprechenden Folgen, die Fps brechen ein, die Frametimes sind unsauber, das anklicken der Gegenstände in der Abstellkammer führt zu Lags.

Noch krasser kann man das Phänomen beobachten ab Minute 15:10 mache ich einen Streamingrun durchs Treppenhaus. Bei Minute 16:07 ist das anklicken des Polizeizombies dann der Kollapse. Der Vram ist überfordert, der Streamingcache bricht zusammen. Die Framerate droppt hart, aber auf ein konstantes Niveau(von 105 auf 75). Anhand der ASIC im OSD sieht man dann die mangelnde Auslastung der GPU.
In der Umkleide sammelt sich der Ram dann wieder nach einem heftigen Stocker und die Fps normalisieren sich wieder.

Streaming in einen Bench zu packen der reproduzierbar ist, ist nicht leicht. Ich habe trotzdem mal ein leicht nachstellbare Szene kreiert und habe diese gebencht.
Wer das ganze nachstellen möchte findet die Settings und den Run in diesem Video. Das Video dürfte in der Darstellung ziemlich bescheiden bei euch aussehen weil es mit Freesync 2 HDR läuft. Man erkennt aber alles denke ich.
Benchrun: YouTube
Recording 60 sec. Beachtet die Grafikdetails, vor allem HBAO und SMAA!
Die XT Varianten um den Speicher mehr zu fordern gibts hier:
https://www.youtube.com/watch?v=rA5T-OyWNUU&feature=youtu.be
Recording dann 90sec. Selbe Grafikdetails.

Die entsprechenden Messungen dazu finder Ihr hier. Die Min Fps. sind harter Tobak bei einer AVG von 110 Fps.
Messung 2 Lows.pngMessung 2 AVG.pngMessung 2 Frametime.pngMessung 1 Lows.pngMessung 1 AVG.pngMessung 1 Frametime.pngMessungen Vergleich.jpg

Zusammenfassend kann ich sagen, das Spiel profitiert sicher von mehr Speicher. Das verwerfen und Streamen ist teils deutlich spürbar. Man muss aber sagen das man sich in der Regel in dem Spiel nicht derart schnell bewegt sondern eher vorsichtig von Raum zu Raum zieht. Das Streaming ist hier bewusst stark beansprucht. Wäre natürlich super wenn noch wer anders hier Messungen beitragen könnte. Vor allem Karten mit weniger und mehr Speiche wären sehr interessant.
Vega scheint hier generell sehr schnell zu sein in dem Titel, HBCC lässt sich mit den Settings nicht nutzen in DX11. Das führt zügig zu einem dauerhaften Kollapse des Vram. DX11 läuft schneller als DX 12.(in DX12 lässt sich HBCC nutzen)
Aufnahme und Messungen wie in den Videos zu sehen in der schnellsten API, also DX11.
Zur Engine muss man noch sagen das die Kontaktschatten sowie die Screenspace Reflektionen teils ziemlich buggy sind in der Demo.
Das Spiel stresst mein gesamtes System, sowohl die CPU hat gut zu tun wie auch die GPU. Das hier wird übrigens meiner neuer Speicherburner. Das aggressive Streaming kocht meinen Vram, der geht normalerweise nie über 64 Grad hinaus. SMAA sieht übrigens deutlich besser aus als TAA, führt aber teils zu starkem Kantenflimmern, TAA sieht aber sehr verwaschen aus dafür deutlich ruhiger.

Update: Die ersten Messungen scheinen nicht ganz repräsentativ zu sein, da hier Hyper Threading deaktiviert war bei mir. Reine 4Kerner scheinen Probleme mit hohen Fps und dem Streaming zu bekommen. Weitere Messungen im Thread.

Aktualisierte Messungen
XT Benchmark WQHD: WQHD Vergleich HBCC (2).pngWQHD Vergleich HBCC.png
XT Benchmark 1800p: 1800p HBCC off (2).png1800p HBCC off.png1800p HBCC on (2).png1800p HBCC on.png

Benchrun WQHD und 1800p: RE2 1800p.pngRE2  WQHD (2).png
 
Zuletzt bearbeitet:
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Interessant wäre ja auch eine 1080ti oder 2080ti mit 11GB, da sollte schon spürbar besser laufen.

Hier ein Texturenvergleich zwischen Hoch 2GB und Hoch 8GB. Eindeutiger Qualitätsunterschied. 6Gb haben hier selbst mit der 2GB Einstellung keine Chance.
Vollbild empfohlen, am Verstärker sieht man es am besten, vor allem durch die Schrift.
Screenshot (128).jpgScreenshot (127).jpgScreenshot (126).jpgScreenshot (125).jpg
 
Zuletzt bearbeitet:

MaW85

Software-Overclocker(in)
Ich habe bei 1080p mal die Grafik Qualität von 100% auf 200% gestellt. Ich hatte erst gedacht das entspricht dann 2180p, aber nein das konnte nicht sein. Weil die FPS Leistung zwischen 1080p 200% und 2160p 100% spürbar anders war. Hatte leider kein Tool dabei laufen. Aber ich kann die Grafikqualitätseinstellung nur empfehlen um das Bild zu verbessern.
Beste Kantenglättung und Kantenflimmern Reduktion ist FXAA+TAA, schade das dabei die schärfe verloren geht. Macht aber ein besser Spielgefühl für mich aus.
Desweiteren konnte ich beachtlicher weise auf meiner FURY X Problemlos Texturenqualität auf 8GB stellen, mein System hat den Überschuss von ~2GB einfach Variabel ausgelagert.
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Ich habe bei 1080p mal die Grafik Qualität von 100% auf 200% gestellt. Ich hatte erst gedacht das entspricht dann 2180p, aber nein das konnte nicht sein. Weil die FPS Leistung zwischen 1080p 200% und 2160p 100% spürbar anders war. Hatte leider kein Tool dabei laufen. Aber ich kann die Grafikqualitätseinstellung nur empfehlen um das Bild zu verbessern.
Beste Kantenglättung und Kantenflimmern Reduktion ist FXAA+TAA, schade das dabei die schärfe verloren geht. Macht aber ein besser Spielgefühl für mich aus.
Desweiteren konnte ich beachtlicher weise auf meiner FURY X Problemlos Texturenqualität auf 8GB stellen, mein System hat den Überschuss von ~2GB einfach Variabel ausgelagert.

Merkst du keine Ruckler bei Gebietswechseln?
Du kannst ja mal meinen Run nachstellen und einfach mal Afterburner mit Frametimeanzeige laufen lassen. Das solltest du sehen und spüren können wenn er Ram verwirft oder neu rein lädt.
YouTube
 

TheNewNow

Freizeitschrauber(in)
Das ganze lief auf der 980ti echt erstaunlich flüssig.

Screenshot (53).png
Screenshot (52).png
Settings sind wie angegeben. Bin echt überrascht. Läuft für 6GB Ram bei angeblich 12 GB benötigten echt erstaunlich flüssig. Ich lade gleich noch ein Video hoch. Die GTX970 edition kommt natürlich auch noch :D

Update: Video ist jetzt hochgeladen. YouTube

Update 2:

Die GTX 970 hat wirklich Probleme. Die Auflösung war aufgrund eines alten 16:10 Display an den der PC zurzeit hängt etwas höher als 1440p. Trotzdem hatte sie absolut keine Chance mitzuhalten. Update: Gleich noch ein Video dazu: YouTube
Screenshot (59).pngScreenshot (58).png
 
Zuletzt bearbeitet:
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Super :daumen:
Bin positiv überrascht muss ich sagen. Vor allem der Spike wenn man zum Schluss das Gebäude betritt fällt bei dir überraschend glimpflich aus.

Das dürfte bei 4GB Karten auch nicht besser aussehen denke ich.
Interessante Werte von dir :bier:

Kannst du bei der 980ti noch was überprüfen.
Du bist in dem Video nicht ganz an das Tor auf der linken Seite gerannt. Das ist aber wichtig weil dort das dahinter liegende Gebiet dann gestreamt wird.
Kannst du das nochmal nachmessen.
 
Zuletzt bearbeitet von einem Moderator:

TheNewNow

Freizeitschrauber(in)
Werde ich morgen nochmal nachmessen. Dann kommt auch eine 4K Edition von der 980ti (hab ja nen 4K Monitor). Die 30 Minuten sind auch witzlos, wenn die nach jeden mal Alt+F4 wieder zurückgesetzt werden. Hab also genug Zeit zum benchen und testen.
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Sonst nimm einfach das Hacktool, dann kanst da rumlümmeln wie du willst.
 

ChrisMK72

PCGH-Community-Veteran(in)
Also ich hab deine Grafikeinstellungen aus dem Video benutzt, obwohl ich sie in vielen EInstellungen nicht mochte und das Demo so gezockt. Is ja ne Gratisdemo, also wenigstens zu etwas sinnvollen nutzen ! ;)

Erst mal die Daten die ich mit Afterburner sichern konnte:

1-jpg.1027756


Jetzt der andere Kram:

Abschnitte von 480 Sekunden Aufnahmen(der RAM ist mir nie ausgegangen, da bei mir nur 6,8GB genutzt wurden, bis ACHTUNG SPOILER !!!! zu der Stelle wo ich gekommen war, nachdem ich wieder durch das Tor zurück bin, in die Halle, wo der eine Polizist mich erwartet hat):

Erster Abschnitt:

2-jpg.1027757

3-jpg.1027758




Zweiter Abschnitt:

4-jpg.1027759

5-jpg.1027760


Und noch n Vergleich Abschnitt 1 vs Abschnitt 2, einfach weil Vergleiche so schön aussehen ! ;) :D :lol: :

6-jpg.1027761

7-jpg.1027762



Lief technisch gut, aber Grafik sah shice aus. Außerdem war die Steuerung sehr lahmarschig. Ich hab ne Weile gesucht in den Einstellungen, wo ich die Maussensitivität einstellen kann, oder wo die Taste "Springen" ist.
So kann man auch ne 30 Minuten-Demo verbringen. ;)
Das Umdrehen usw. lief sehr laggy. Aber ich denke das ist die normale vorgegebene Geschwindigkeit, wie da Bewegungen sein sollen. ;)

Gefiel mir relativ begrenzt das Spiel. Auf der Playsi 1 war's um Längen besser.

Heute hab ich halt ein Dying Light. Das läuft ja gerade zu blitzartig ab, dagegen, was Reaktion und Steuerung angeht. Und das noch in einer Open World mit guter Grafik !
Also für mich is das Game nix.

Wollte aber wenigstens ein paar technische Daten beisteuern. Ich hoffe irgendwer kann was damit anfangen. :)


P.S.: Checkt mal besser Dying Light ! Also das normale erste Spiel, nicht diesen Battle Royal Hokuspokus.
Nur so n Tipp !


edit:

nachtrag:

Ich hatte natürlich mein FPS Cap von 140 drin. So spiel ich halt.
 

Anhänge

  • 1.jpg
    1.jpg
    1,2 MB · Aufrufe: 1.732
  • 2.jpg
    2.jpg
    280 KB · Aufrufe: 1.735
  • 3.jpg
    3.jpg
    228,3 KB · Aufrufe: 1.713
  • 4.jpg
    4.jpg
    236,3 KB · Aufrufe: 1.707
  • 5.jpg
    5.jpg
    306,5 KB · Aufrufe: 1.698
  • 6.jpg
    6.jpg
    321,2 KB · Aufrufe: 1.697
  • 7.jpg
    7.jpg
    262,8 KB · Aufrufe: 1.690
Zuletzt bearbeitet:
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Das ist doch schon mal was. Danke fürs mitmachen. Haben wir ja schon mal ne 11Gb 1080ti auf dem Feld hier.
Kannst du evtl. den Benchrun auch noch nachstellen wie im zweiten Video. Am besten 3 Durchläufe(musst nicht immer neu laden, einfach am Tor ne Gedenksekunde einlegen.)

Im OSD und in CapframeX sieht man auch gut wo Ram verworfen und nachgeladen wird. Ich hätte aber gedacht das die Ti da sauber durch kommt. Mir scheint es, sofern die Engine freie Vram zur Verfügung hat, nutzt diese einen Teil als Streamingchache. Ich versuch mal heute im laufe des Tages ob ich irgendwie einen komplett lagfreien Ablauf hinbekomme durch reduzieren der Texturqualität. Das die Texturen an Qualität einbüßen bei den niedrigeren Einstellungen sieht man ja gut an meinen Vergleichsbildern.

Was mich wundert ist das die 980ti im Benchrun so sauber durchkommt, eigentlich belegt das Spiel schon direkt nach dem Start mehr als 6GB. Denkbar das die Texturen dann automatisch reduziert werden.
Mir ist aber auch aufgefallen das beim Streaming die CPU ganz schön ins schwitzen kommt für einen kurzen Moment.
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Kannst du evtl. den Benchrun auch noch nachstellen wie im zweiten Video. Am besten 3 Durchläufe(musst nicht immer neu laden, einfach am Tor ne Gedenksekunde einlegen.)

Nope. leider nicht.

Hatte noch 2 Minuten auf der Uhr, die konnt ich mir aber nicht mehr geben. Hab die Demo auch nicht beendet, weil ich dabei eingeschlafen bin. ;)
Is schon auf der Ignoreliste im Steamshop und deinstalliert. :D

( Auf der Playsi 1 kam's irgendwie besser rüber ! ;) Heute is das nix mehr für mich )
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Nope. leider nicht.

Hatte noch 2 Minuten auf der Uhr, die konnt ich mir aber nicht mehr geben. Hab die Demo auch nicht beendet, weil ich dabei eingeschlafen bin. ;)
Is schon auf der Ignoreliste im Steamshop und deinstalliert. :D

( Auf der Playsi 1 kam's irgendwie besser rüber ! ;) Heute is das nix mehr für mich )

Ok kein Problem, war ja trotzdem recht aufschlussreich.
Hab noch was schönes, Vram extrem :ugly:
2019.01.15-06.33.jpg

Hab übrigens gerade festgestellt das ich HT aus hatte, mit nur 4 Kernen ohne HT läuft das Streaming nicht sauber.
 

TheNewNow

Freizeitschrauber(in)
So hier nochmal das Diagramm mit zum Tor gerannt: YouTube
Die Frametimes sind sehr ähnlich (oder soagr gleich), deswegen spare ich mir das hier. Gleich kommt noch ein Update für Werte in 4K.

Update: YouTube Die 4K Version. Ein paar Settings runter, dabei dieses lächerliche Screen Space Reflection, Motion Blur und noch ein paar andere Settings runtergeschraubt. Optisch nicht wirklich mein Fall (wahrscheinlich wegen den noch teilweise kaum optimierten Settings ... hust*SSR*hust). Aber die 980ti reicht auch hierfür noch.
 
Zuletzt bearbeitet:

Atma

PCGH-Community-Veteran(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Digital Foundry unterstreicht haargenau meine Beobachtungen in der Demo:

- Die VRAM Anzeige in den Optionen kann man getrost ignorieren.
- 8 GB VRAM sind ausreichend mit maxed out Texturen in 1440p
- Geringe CPU Last.

Dazu kommt noch ein interessantes Detail: Die Demo basiert auf einer uralten Build, haargenau dieselbe Demo war bereits im September für die Presse und ein paar Youtuber spielbar. Es ist also äußerst wahrscheinlich, dass die Vollversion technisch in einem anderen Zustand ist. Das macht es umso absurder, wie Gurdi anhand der alten Build und seinen Messungen die Performance und den angeblichen VRAM Verbrauch für allgemeingültig erklärt. Was bei ihm schlecht läuft, muss bei anderen auch schlecht laufen! Ich frage mich ernsthaft was diese Propagandascheiße soll, besonders mit Blick auf Turing wird gezielt versucht Karten mit 8 GB VRAM schlecht dastehen zu lassen um die ach so tolle Radeon VII sowie HBCC bei Vega zu feiern.

Hier Gurdi, damit es im anderen Thread nicht untergeht:

1440p, maxed out, DX11, selbe Benchszene, zwei Durchläufe

ocat_re29sjyy-png.1027794


Die vollständigen Specs zu meinem System sind hier zu finden: sysProfile: ID: 150800 - Atma

Was bei dir schlecht läuft, muss bei anderen auch schlecht laufen ... nicht! :daumen2:

Dein ganzes Verhalten in all den Threads der vergangenen Monate und das Vega Logo im Avatar sowie auf dem Desktop unterstreichen deutlich wie du tickst, AMD Fanatiker at it's best. Einfach ekelhaft.
 

Anhänge

  • ocat_re29sjyy.png
    ocat_re29sjyy.png
    83,2 KB · Aufrufe: 743
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Das macht es umso absurder, wie Gurdi anhand der alten Build und seinen Messungen die Performance und den angeblichen VRAM Verbrauch für allgemeingültig erklärt
Hast du ne Macke? Das hier ist ein techthread zu dem Spiel weil es wegen dem hohen Vram Verbrauch interessant ist.

Ist doch jeder gerne eingeladen hier die Messungen anhand der Szene nachzustellen damit man eben klären kann ob es einen Unterschied macht oder nicht.
Meine Messungen waren fehlerhaft musste ich feststellen wegen dem deaktivierten HyperThreading. Anscheinend reicht ein einfacher 4 Kerner nicht um das Streaming bei hohen Fps zu gewährleisten.
Bei mir kommt auch noch HDR dazu, da funktionieren auch keine Komprimierungen mehr.

HBCC funktioniert jetzt auch unter DX11. Ich versuch heute mal in 1800p ob man einen unterschied feststellen kann und ob bei geringerem Vram Verbrauch die Texturqualität reduziert wird.
 

Atma

PCGH-Community-Veteran(in)
Man reg dich doch nicht so auf, deine 2080 hat halt nur 8Gb ohne HBCC. Na und?
Darum ging es überhaupt nicht. Wenn du nichts beizutragen hast, einfach die Finger von der Tastatur lassen. Danke.

Hast du ne Macke? Das hier ist ein techthread zu dem Spiel weil es wegen dem hohen Vram Verbrauch interessant ist.
Klar, jetzt begrenzt du es bewusst nur auf diesen einen Thread hier obwohl du bei jeder Gelegenheit im restlichen Forum deine Propaganda verbreitest :schief:

Man sieht halt nur was man sehen will, stimmt's? Genau so argumentierst du auch.
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
So dann auch mal HBCC getestet. In WQHD geht er in dem Benrun rauf bis auf 8,8Gb, in 1800p belegt er bis zu 10GB.
Vorteile durch HBCC in der Leistung sind nicht zu erkennen. Es wird aber ein feines LOD verwendet ohne HBCC, das muss ich mir aber noch näher anschauen.
FS 2 HDR kostet etwa 4% Leistung auf Vega in WQHD.
Messungen sind mit HDR.

Re 2 1800p HBCC.pngRe 2 1800p HBCC (2).jpgRE2 1800p.pngRE2 1800p (2).jpgRE2  WQHD (2).pngRE2  WQHD.pngRE2 HBCC WQHD.pngRE2 HBCC WQHD (2).png
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Hab die benchszene noch etwas erweitert und auf 90 sec. verlängert.
Nach dem normalen benchrun gehe ich in der Eingangshalle zum Empfang und nehme die Munition auf, gehe dann weiter an die Kiste wo man Gegenstände ablegt, klicke diese an und drehe dann um zum Tor und krieche durch.

Das ganze sieht dann so aus:
HBCC Off
1800p HBCC off.png1800p HBCC off (2).png
HBCC On
1800p HBCC on.png1800p HBCC on (2).png

Im Lshape sieht man die Differenzen besser. Interessant wäre jetzt wie eine Karte mit mehr als 8GB das geregelt bekommt. Mit HBCC on läuft das schon ne ganze Ecke smoother ab.Nativer Vram sollte in der Theorie das ganze Prozedere ohne Lags abspulen können.
 

Blackout27

Volt-Modder(in)
Verstehe die Kritik an Gurdi generell nicht und hier in dem Thread ehrlich gesagt überhaupt nicht?

Kann mir jemand ein paar handfeste Beispiele geben warum Gurdi rote Propaganda im Forum betreibt? Wenn ich was von ihm lese dann meist zur Vega Performance oder zu Einstellungen von Vega. Ab und an lese ich aber auch positive Kommentare von ihm zu Nvidia (zum Beispiel Kaufempfehlung RTX2070).

In diesem Thread habe ich kein Satz gefunden wo er gegen Nvidia schießt, ganz im Gegenteil da er die GTX980ti lobt und an seiner eigenen Vega Kritik ausübt, alles natürlich im neutralen Ton.

Mir gefällt der Thread auch wenn mich das Spiel nicht interessiert. Von DF kann man erahnen das das fertige Spiel besser läuft und ggf. später ein RTX Patch bekommt (Kommentar Atma). Würde mir da DLSS wünschen oder/und Beleuchtung.

Finde die Kritik hier wirklich unangebracht nach meinem jetzigen Gesichtspunkt aber die Stimmung hier im Forum scheint immer weiter anzunehmen, leider.
Anstatt sich hier im Forum zu freuen und lebhaft zu diskutieren wird der Umgang immer härter (manchmal zurecht das gebe ich gerne zu). Verstehe beim besten Willen die ganze Aufregung seit dem Release von Turing sowieso nicht? Abgesehen vom Preis den viele nicht zahlen wollen/können ist die Technik dahinter top und sollte jedem GPU User Lust auf mehr machen!
 
S

Schaffe89

Guest
Das macht es umso absurder, wie Gurdi anhand der alten Build und seinen Messungen die Performance und den angeblichen VRAM Verbrauch für allgemeingültig erklärt.

Seine Messungen waren wie auch schon zur Leistungsaufnahme zur Vega größenteils Bullshit und auch hier ist es jetzt wieder der nächste unterschwellige Propagandaversuch.
Auch dieses Gelaber zum HBCC ist purer Bullshit, er hat ja echt ein 5K Video mit ~15 FPS hochgeladen um dann die Auswirkungen des tollen HBCC zu preisen, dabei ist nach den Tests schon lange klar, dass dieser nur für Anwendungen interessant ist, aber für Spiele unterm Strich gar nichts bringt, deswegen haben alle Seiten Messungen mit HBCC quasi eingestellt.


Ich frage mich ernsthaft was diese Propagandascheiße soll, besonders mit Blick auf Turing wird gezielt versucht Karten mit 8 GB VRAM schlecht dastehen zu lassen um die ach so tolle Radeon VII sowie HBCC bei Vega zu feiern.
Da kommt bestimmt noch mehr.:D Einfach nicht beachten.

Es wird aber ein feines LOD verwendet ohne HBCC, das muss ich mir aber noch näher anschauen.

Ein feines LOD wird also verwendet. Soso.
rollen.gif
Vergleichsbilder/Differenzbilder? Glaube ich dir nicht.
Wieder mal zu 99% komplett erfunden. Läuft mit HBCC deutlich smoother... ja ne is klar.
Fraglich wie man bei der schäbigen Texturqualität überhaupt mehr wie 2GB Grafikspeicher verbrennen kann.

Ich finde das ehrlichgesagt toll dass du Dinge testen oder anschauen willst, aber was mich massiv stört ist, dass du jedes mal irgendwelche Dinge hinzuerfindest um dich irgendwie ins Rampenlicht zu rücken.
Das fing bei dem angeblichen Treiberoverhead senken auf Nvidia Niveau (Directx11) an und hört bei x anderen Behauptungen auf.
Einfach mal irgendeinen Müll behaupten und ständig verbreiten. Da fragt man sich was mit dir nicht ganz richtig ist. Also lass das doch mal bitte endlich.
 
Zuletzt bearbeitet:

Atma

PCGH-Community-Veteran(in)
Ein feines LOD wird also verwendet. Soso.:schief: Vergleichsbilder/Differenzbilder? Glaube ich dir nicht.
Gurdi und sein LoD, eines seiner besten Märchen :ugly:

Verstehe auch nicht, warum er sich so sehr an der Performance der Demo aufgeilt. Die Demo basiert auf einer Version die mindestens 4-5 Monate alt ist, völlig sinnfrei dermaßen viel Energie in die Benches zu stecken.
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Das LOD kann man in der Demo am besten erkennen wenn nicht alle Texturen nach dem startender Demo geladen werden können wegen zu wenig Speicher. Man kann dann durch simples auf und ab bewegen der Kamera an der Statue das Lod erkennen, vor allem an den flankierenden Lorbeerkränzen. So schnell kriegt man aber kaum nen screenshot hin, muss mal schaun ob das in einem Video erkennbar ist.

völlig sinnfrei dermaßen viel Energie in die Benches zu stecken.
Das einzig sinnfreie sind eure Kommentare hier die übrigens nur Offtopic und simples gehate sind.
Es geht bei den Benches nicht um GraKa Vergleiche sondern um die Auswirkungen des Vram und wofür das Spiel soviel Vram veranschlagt.
 
Zuletzt bearbeitet:
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Ich denke hier habe ich das LOD ganz gut einfangen können, war zwar nicht leicht aber man sieht die Unterschiede im Zoom recht deutlich.
Auf die Distanz dürfte die Detailunterschiede kaum jemand erkennen, man erkennt aber das überblenden der vollständigen Texturen bei schneller Bewegung.
Die Texturen rechts sind voll aufgelöst, während links reduzierte anliegen. Am Kopf der Statue kann man es am besten erkennen sowie bei dem Ornament was unten am Ende quasi völlig untergeht.

Screenshot (149).jpgScreenshot (148).jpgScreenshot (147).jpg
 

Rolk

Lötkolbengott/-göttin
Dann bin ich mal auf den PCGH-Techniktest gespannt, falls es denn einen gibt. Das Spiel wird von einer gewissen Klientel wahrscheinlich gehatet bis zum abwinken.
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Wird ja bald schon relased. Bin auchmal gespannt was die Techmagazine bzw. Channels dazu sagen.
 

gaussmath

Lötkolbengott/-göttin
@Chris: Ich sehe glaube ich zum ersten Mal, dass eine L-Shape Kurve eine andere schneidet und sogar überholt. Könnte ich die Datensätze haben, bitte? Für die Wissenschaft... :D

Ich habe die Demo gestern installiert und werde alsbald was liefern hier. :daumen:

Wenn ich Atmas Frametime Graphen sehe, dann sind die schön glatt. Ist hier doch ein Einfluss der CPU größer als gedacht?!

@Atma: Installiere doch mal CapFrameX, dann könnten wir die L-Shape Kurven vergleichen.
 
Zuletzt bearbeitet:

DaHell63

BIOS-Overclocker(in)
Das Ganze erinnert mich irgendwie an die Tessellationvergleiche. Standbild und extrem Zoom um einen Unterschied zu zeigen.
 

Olstyle

Moderator
Teammitglied
@Gurdi: könntest die die pngs direkt hochladen? Screenshot eines Screenshot Vergleichs als jpg gespeichert kostet dann doch ein bisschen Genauigkeit.
 

ChrisMK72

PCGH-Community-Veteran(in)
@Chris: Ich sehe glaube ich zum ersten Mal, dass eine L-Shape Kurve eine andere schneidet und sogar überholt. Könnte ich die Datensätze haben, bitte? Für die Wissenschaft... :D

Ich würde da wissenschaftlich gesehen nicht zu viel drauf geben, da es ja völlig unterschiedliche Abschnitte des Spiels waren, mit je anderen Filmsequenzen, also nicht nur inGame, desweiteren war ich des öfteren eine Weile im menü, um zu versuchen da unter dem 30 Minuten Zeitdruck dort Sachen herauszufinden und Einstellungen vorzunehmen.
Bei dem Test hier hab ich nicht viel Aufwand betrieben, da mich das Spiel ansich auch nicht wirklich interessiert.
War eher so ein dahingerotzter Test. :D

Also bei Spielen, die ich mag, betreibe ich wesentlich mehr Aufwand beim testen und mache das auch viel genauer unter möglichst gleichen/vergleichbaren Bedingungen.

So gesehen ...
Naja. ;)


Falls du die Daten noch haben möchtest, sag noch mal bescheid, dann zip ich sie dir. Gern auch per PN. :)

@ Gurdi+Atma: vertragt euch doch wieder. :bier:
Natürlich hat es schon ein kleines "Geschmäckle", wenn jemand sowohl im Avatar, als auch als Desktophintergrund ein Bild einer AMD GPU hat. Hat schon ein wenig von Fanboismus(nicht böse gemeint, also bitte nicht falsch verstehen, denn es ist ja legitim Dinge gut zu finden, wie ich finde), oder what ever.
Aber wenn einen das stört, kann man denjenigen ja ignorieren, falls man allergisch auf seine postings reagiert. Soll besser für die Gesundheit sein. ;)

Die Kritik an den lediglich 8GB Speicher der zum Start nicht gerade günstigen 2080 ist finde ich durchaus berechtigt, aber eigentlich ein Thema bei Vorstellung der Karte gewesen.
Das weiß aber jeder Käufer vorher und wer mehr Speicher wollte, hat zumindest schon mal ne 1080Ti drin, oder kauft bald ne Radeon 7, je nachdem wie das Dingen wird, nach den benchmarks und ob man einen freesync/G-sync Monitor hat.

Is doch im Grunde alles halb so wild. Sind nur GPUs.

Also Peace Leute !

Allerdings hab ich auch kein Bild meiner 1080Ti auf dem Desktop, oder im Avatar. Für mich is das ne GPU, wie andere auch und jederzeit austauschbar(war ja auch second hand, also gebraucht). Aber jeder wie er/sie mag.

Ansonsten is das ja Gurdi's Thread und man braucht ja nicht mitmachen, wenn man nicht möchte, bzw. das uninteressant findet.

Mir gehts es primär um den Vram in dem Spiel, da hier 8GB in WQHD bereits nicht mehr ausreichen im Max Out.

Anscheinend is das ja nicht ganz richtig. Hab unrealistisch hohe und dazu noch schlecht aussehende Optionen(wie ich sie in echt nie nutzen würde, da bäh! ;) ) genutzt und war glaub ich max. bei nicht ganz 7 GB.

Und ich schätze es gibt wesentlich mehr Leute, die das Game auf Full HD zocken, mit mittleren Einstellungen, mit ner GTX 1060 6GB und auch ihren Spaß damit haben, so fern sie das game mögen.

Ich weiß auch gar nicht, was da wieder ein hype drum gemacht wird.
Ich finde das Game gar nicht so dolle, ehrlich gesagt.
Aber mich fragt ja auch keiner ! ;)


So ...

Weiter machen !
Schönen Tag noch @ all ! :) :daumen:


P.S.: Zwischendurch chillen und mal n Kaffee rauchen soll auch ganz gut tun. ;)
jumpin-gif.1027934
:kaffee:
 

Anhänge

  • jumpin.gif
    jumpin.gif
    1,3 KB · Aufrufe: 731
Zuletzt bearbeitet:

Atma

PCGH-Community-Veteran(in)
Ich denke hier habe ich das LOD ganz gut einfangen können, war zwar nicht leicht aber man sieht die Unterschiede im Zoom recht deutlich.
Ja, bei dem Pixelbrei sieht man die Unterschiede in der Tat super deutlich :schief: :ugly:

Einbildung ist eben auch eine Bildung.

@Atma: Installiere doch mal CapFrameX, dann könnten wir die L-Shape Kurven vergleichen.
Ich hab die Demo lang genug durchgenudelt, inzwischen ist sie deinstalliert. Es ist einfach sinnfrei derart viel Energie in eine 4-5 Monate alte Pre-Release Build zu stecken.
 

gaussmath

Lötkolbengott/-göttin
Ich hab die Demo lang genug durchgenudelt, inzwischen ist sie deinstalliert. Es ist einfach sinnfrei derart viel Energie in eine 4-5 Monate alte Pre-Release Build zu stecken.

Ok, könntest du bitte die beiden CSVs von OCAT hier hochladen? Müsstest du einfach voher zippen und go...
 
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
@Gurdi: könntest die die pngs direkt hochladen? Screenshot eines Screenshot Vergleichs als jpg gespeichert kostet dann doch ein bisschen Genauigkeit.

Ja kann ich machen. Welche willst du denn sehen, die zum Texturvergleich oder zum LOD?

Das Ganze erinnert mich irgendwie an die Tessellationvergleiche. Standbild und extrem Zoom um einen Unterschied zu zeigen.
Die Unterschiede halten sich wie erwähnt in Grenzen. Screenshots sind aber auch so eine Sache, wenn man selbst vor dem Panel sitzt ist das schon was anderes.

Wenn ich Atmas Frametime Graphen sehe, dann sind die schön glatt. Ist hier doch ein Einfluss der CPU größer als gedacht?!
Ich denke ein echter 8 Kerner läuft hier deutlich geschmeidiger als mein 4 Kerner.

Ich habe die Demo gestern installiert und werde alsbald was liefern hier.
Sehr gut :daumen:
Auf die Frametime Fraktion ist verlass. Joggo steuert auch bald nen run mit 16GB bei.

Natürlich hat es schon ein kleines "Geschmäckle", wenn jemand sowohl im Avatar, als auch als Desktophintergrund ein Bild einer AMD GPU hat.
Ich hab da eigentlich meine Kinder gehabt, aber das erschien mir nicht sonderlich schlau wenn ich hier ständig was hochlade Privatbilder als Hintergrund zu haben.
Der Kontext passt doch.
 

Atma

PCGH-Community-Veteran(in)
TE
Gurdi

Gurdi

Kokü-Junkie (m/w)
Die Min Fps scheinen sich durch mehr Kerne deutlich verbessern zu lassen.
Stellt sich die Frage ob ein PC mit starkem Mehrkernprozessor und viel Vram den Run völlig glatt hinbekommen könnte.
 

gaussmath

Lötkolbengott/-göttin
@Atma: Besten Dank!

Hast du ein Glück, dass OCAT im Dokumente Ordner von Win 10 noch Kopien der Dateien abgelegt und ich diese vergessen hatte
zwinker4.gif
. Sämtliche CSV Dateien sowie OCAT habe ich inzwischen gelöscht bzw. deinstalliert.

Wieso deinstallierst du denn OCAT? Das ist das beste Tool in dem Bereich, was es gibt, abgesehen von FCAT.
 
Zuletzt bearbeitet:
Oben Unten