AMD Radeon VII: Gamersnexus treibt die Grafikkarte ans OC-Limit

In wievielen Games, welchen und gibt es visuelle Beweise, die das Belegen?


Ich mache in nächster Zeit mal ein paar 4K Zweitaufnahmen, damit die Jungens mal sehen was die Engines maximal reinpressen

Und wie beknackt es dann für ihre 8GB vs 16GB aussieht

Und da muss ich wieder betonen ,das das noch lange nicht der Flaschenhals ist, weil eben moderne Engines so wie Metro auch effizient Gebrauch, vom vorhanden Speicherpool machen
 
Eben nicht. Schon seit mehreren Jahren gibt es Spieleengines die auslesen wieviel Speicher verfügbar ist und dann selbstständig entscheiden die Details zu reduzieren, ohne dass man selbst das beeinflussen könnte. Sprich selbst wenn du alles auf Anschlag drehst, bekommst du es nicht. Das sieht dann im popobrenner so aus als würde nicht einmal der vorhandene voll belegt werden und man hat mehr fps als die Konkurrenz, man stellt eben auch weniger dar.

Gesendet von meinem HTC mit Tapatalk

Und auf der anderen Seite gibt es seit Jahren Spiele die vorhandenen überschüssigen Vram einfach füllen ob sie ihn brauchen oder nicht.
Und sich n gutes stück reservieren sicherheitshalber.

Es ist nicht einfach den genauen Vram verbrauch zu beziffern.. Die eine Engine reserviert bedeutend mehr als sie braucht.. Die andere gibt nur soviel Details wieder wie Daten in den Vram passen.. Und die nächste hat nachladeruckler obwohl noch massig vram frei ist.

Das ist oft auch ne frage wie sauber die PC version optimiert ist.. Oder ob man gefühlt das spiel in nem Playstation/xbox emulator spielt.

Auch haben die Treiber was damit zu tun wie viel daten im vram vorgelagert werden..
Im nv Inspektor kann man das pro spiel sogar einstellen.
Zwischen as need it.. Moderate und aggressives pre caching
Kann man da wählen..

Klar kann AMD da verschwenderisch mit dem vram der VII umgehen.. Aber die frage die man sich stellen sollte ist.. Wieviel wird wirklich benötigt..
Und wieviel wird unnötig entweder vom treiber oder dem spiel reserviert und nie genutzt
 
Zuletzt bearbeitet:
Hab ich nicht gesagt... Brauchst nicht den Kontext umdichten.

Vielleicht tue ich Dir Unrecht. Schaffe, Scully und Co. haben Recht. Kaufen wir uns einfach für EUR 1.000 eine Grafikkarte, damit 1440p oder 1080p toll bedient werden. Wer braucht schon 4K Gaming. Und dann noch besser: Aber die AMD Grafikkarten verbrauchen ja so viel Strom! [Forum-User, CPU OC @ 5Ghz, bought Grafx for EUR 1.000 bugs]. AMD ist - das muss man sagen, einfach XXXX. Ich kauf mir ab sofort nur noch Nvidia.
 
Und auf der anderen Seite gibt es seit Jahren Spiele die vorhandenen überschüssigen Vram einfach füllen ob sie ihn brauchen oder nicht.
Und sich n gutes stück reservieren sicherheitshalber.

Es ist nicht einfach den genauen Vram verbrauch zu beziffern.. Die eine Engine reserviert bedeutend mehr als sie braucht.. Die andere gibt nur soviel Details wieder wie Daten in den Vram passen.. Und die nächste hat nachladeruckler obwohl noch massig vram frei ist.

Das ist oft auch ne frage wie sauber die PC version optimiert ist.. Oder ob man gefühlt das spiel in nem Playstation/xbox emulator spielt.

Optimiert hin oder her, spätestens bei Nutzung von HDR ist Schluss mit Lustig beim Speicherverbrauch. HDR brauch gerne mal bis zu 1GB mehr.
Dinge die im Vram liegen können auch da bleiben und müssen nicht nach gestreamt werden.
 
Optimiert hin oder her, spätestens bei Nutzung von HDR ist Schluss mit Lustig beim Speicherverbrauch. HDR brauch gerne mal bis zu 1GB mehr.

seit wann braucht denn der erweiterte Farbraum BT2020 solche Unmengen an Vram , jetzt wirds aber extremst (un)lustig:what:

was du meinst sind Hig Res Texturpakete , die haben aber mit der Farbabtastung mal so gar nix am Hut
 
Vielleicht tue ich Dir Unrecht. Schaffe, Scully und Co. haben Recht. Kaufen wir uns einfach für EUR 1.000 eine Grafikkarte, damit 1440p oder 1080p toll bedient werden. Wer braucht schon 4K Gaming. Und dann noch besser: Aber die AMD Grafikkarten verbrauchen ja so viel Strom! [Forum-User, CPU OC @ 5Ghz, bought Grafx for EUR 1.000 bugs]. AMD ist - das muss man sagen, einfach XXXX. Ich kauf mir ab sofort nur noch Nvidia.

Genau das machen beide Seiten. Das ist das was ich anprangere und mich einmische. Beide Lager messen mit zweierlei Maß. Der Kritikpunk bei dem Hersteller A, spielt bei dem eigenen favorisierten Hersteller B plötzlich keine Rolle mehr. Ziemlich starkes Schwarz Weiss denken...
 
Optimiert hin oder her, spätestens bei Nutzung von HDR ist Schluss mit Lustig beim Speicherverbrauch. HDR brauch gerne mal bis zu 1GB mehr.
Dinge die im Vram liegen können auch da bleiben und müssen nicht nach gestreamt werden.

Nun bei besserer Bildqualität durch HDR darf natürlich auch mehr Vram benutzt werden. Ich zb kann dazu nix sagen da ich bisher kein HDR habe.

Natürlich können dinge im vram schneller gestreamt werden.. vram soll ja auch genutzt werden.
Idialerweise sollte sich ein spiel immer den max Vram füllen um nur ganz selten nachladen zu müssen.. Praktisch sieht man oft das mehrere gb noch frei sind obwohl das spiel sie vllt sogar sinnvoll nutzen könnte

Das ist immer ne frage wie gut das Ressourcen Management ist
Je nach spiel klatscht es die 16 gb der VII soweit wie möglich einfach voll.. Obwohl auch 5-6gb problemlos reichen würden..

Da meint es die engine halt etwas zu gut und reserviert mehr als nötig.

Deswegen mag ich diese vram 6 vs 8 vs 16 gb Debatte nicht.. Weil kein Mensch genau sagen kann wieviel vram wirklich gebraucht wird von dem belegten...
Und wir sehen immer nur den belegten vram.

Ich kenne zb auch bei cod bo3 das man über die config extra texturen auch bei karten unter 4gb einstellen konnte.. Und das game lief problemlos damit.. Und das obwohl die ingamesettings das einem nicht haben aktivieren lassen unter 4gb vram
Selbst meine rx380 2gb damals hat das problemlos mitgemacht auf 80 fps..
Die gtx1070 mit 8gb eingebaut.. Und gesehen wie bei gleichen settings 5-6gb vram belegt waren.
Und das nur weil das spiel sie reserviert hatte sicherheitshalber
 
Zuletzt bearbeitet:
Junge ich hab vor nicht mal einer Seite mit einer Titan RTX gezeigt was die Engine in Metro maximal in 4K reinpresst und das sind keine 7Gb , also kannst du dir deine Panikmache schön stecken, schon ganz u gar bei 6GB Karten die für maximal WQHD konzipiert wurden

Das ist nämlich der einzige trockene Ast der die 7 noch über Wasser hällt, darum klammert ihr euch auch daran wie die Nichtschwimmer an den Rettungsreifen:D

Die Turings sind keine Vram Vernichter ,wie diese Hellcats ääh Radeons
Mädchen, du bekommst deshalb Panik? Entschuldige bitte, ich wusste nicht dass du derart unsicher bist. Bei deinen großen Tönen hätte ich etwas mehr Selbstbewusstsein vermutet, statt nur einem Beißreflex.
Aber hey, wenn du in einem einzigen Spiel in deinem eigenen Test sowas feststellst, dann muss das einfach für sämtliche engines gelten und dann haben die Männer von PCGH selbstverständlich keinen Plan von dem womit sie sich tagtäglich beschäftigen. Alles klar kleines. :daumen:

Edit
In wievielen Games, welchen und gibt es visuelle Beweise, die das Belegen?

Ich hab deinen post eben erst bemerkt. Keine Ahnung wie viele das sind, ich spiele ja kaum. Das erste Spiel wo das wirklich stark auffiel ist denke ich Mirror's Edge: Catalyst gewesen. Dazu gibt es mMn hier auf der Seite auch einen Test indem das Verhalten beschrieben wird. Den kannst du dir mal durchlesen.

Gesendet von meinem HTC mit Tapatalk
 
Zuletzt bearbeitet:
Nun bei besserer Bildqualität durch HDR darf natürlich auch mehr Vram benutzt werden. Ich zb kann dazu nix sagen da ich bisher kein HDR habe.

Ich habe es gerade mal in Metro nachgestellt in nem Außenlevel , kann von HDR aber weder Screenshots noch Aufnahmen machen,da Geforce Experience das nicht supportet

HDR of

6520

HDR on

6680 :ugly:

jupp das bläßt den Vram voll wie erwartet diese 8bit vs 10bit Farbtiefe;)
 
Genau das machen beide Seiten. Das ist das was ich anprangere und mich einmische. Beide Lager messen mit zweierlei Maß. Der Kritikpunk bei dem Hersteller A, spielt bei dem eigenen favorisierten Hersteller B plötzlich keine Rolle mehr. Ziemlich starkes Schwarz Weiss denken...

Ich weiß nicht so genau was du dir hier in dem Thread erwartest. Hier gehts um das OC der Karte auf Basis der Nexus Werte.

Wenns dich stört das dann hier keine negativen Aspekte genannt werden, bitte schön.

-750 Euro sind Schweine viel Geld und das P/L Verhältnis ist beschissen.
-Die Blechdose namens Kühler ist völlig überfordert mit 300Watt TBP
-Die Leistungsaufnahme ist bei Nvidia besser.

Alle zufrieden?
 
Ich weiß nicht so genau was du dir hier in dem Thread erwartest. Hier gehts um das OC der Karte auf Basis der Nexus Werte.

Wenns dich stört das dann hier keine negativen Aspekte genannt werden, bitte schön.

-750 Euro sind Schweine viel Geld und das P/L Verhältnis ist beschissen.
-Die Blechdose namens Kühler ist völlig überfordert mit 300Watt TBP
-Die Leistungsaufnahme ist bei Nvidia besser.

Alle zufrieden?
Dir ist schon klar, dass der ein oder andere nur zum stänkern hier im Thread ist, oder? Um Objektivität gehts denen nicht. Siehst du doch oben. Ich erwähne dass es dieses Verhalten bei aktuellen engines gibt und daraufhin erzählt mir jemand dass es eben auch gegenteiliges gibt. Nur ist mir das durchaus klar und habe ich ja nicht beschritten, oder gar verneint. Dennoch legt er es so aus. Erst zu schreiben dass man für so viel Geld keine Kompromisse eingehen mag und dann schreiben dass die Kompression ja in manchen Spielen sehr gut funktioniert. Was ist Kompression? Ein Kompromiss. :klatsch:

Gesendet von meinem HTC mit Tapatalk
 
Dir ist schon klar, dass der ein oder andere nur zum stänkern hier im Thread ist, oder? Um Objektivität gehts denen nicht. Siehst du doch oben. Ich erwähne dass es dieses Verhalten bei aktuellen engines gibt und daraufhin erzählt mir jemand dass es eben auch gegenteiliges gibt. Nur ist mir das durchaus klar und habe ich ja nicht beschritten, oder gar verneint. Dennoch legt er es so aus. Erst zu schreiben dass man für so viel Geld keine Kompromisse eingehen mag und dann schreiben dass die Kompression ja in manchen Spielen sehr gut funktioniert. Was ist Kompression? Ein Kompromiss. :klatsch:

Gesendet von meinem HTC mit Tapatalk

Nun ich versuche halbwegs eine vernünftige Diskussion zu führen.. Sollte ich was geschrieben haben von dem du dich angegriffen fühlst dann möchte ich mich dafür entschuldigen.

Ich wollte nur darauf aufmerksam machen das sich jedes Spiel da anders verhält. Und manche spiele auch ziemlich probleme damit haben mit Ressourcen umzugehen.
 
Mal eine Frage zur V-Ram Nutzung:

Wie verhält sich der V-Ram Verbrauch eigentlich aktuell mit aktivierten RTX Features wie Ray Traycing und Co. vs deaktivierten RTX Features, also normalen Einstellungen, welche auch die R VII beherrscht?

Ich meine, müsste der V-Ram Verbrauch mit aktivierten RTX Features nicht Unterschiedlich sein, da ja völlig andere Berechnungen, somit auch andere Kompressionen, Beleuchtungen usw stattfinden?

Ein Vergleich wie groß die Abweichungen der V- Ram Auslastung in beiden Szenarien sind würde mich sehr interessieren, und auch, ob aktivierte RTX Features oder deaktivierte RTX Features mehr oder weniger V-Ram der Grafikkarte verbrauchen, und wenn ja, warum. :D
 
Mal eine Frage zur V-Ram Nutzung:

Wie verhält sich der V-Ram Verbrauch eigentlich aktuell mit aktivierten RTX Features wie Ray Traycing und Co. vs deaktivierten RTX Features, also normalen Einstellungen, welche auch die R VII beherrscht?

Ich meine, müsste der V-Ram Verbrauch mit aktivierten RTX Features nicht Unterschiedlich sein, da ja völlig andere Berechnungen, somit auch andere Kompressionen, Beleuchtungen usw stattfinden?

Ein Vergleich wie groß die Abweichungen der V- Ram Auslastung in beiden Szenarien sind würde mich sehr interessieren, und auch, ob aktivierte RTX Features oder deaktivierte RTX Features mehr oder weniger V-Ram der Grafikkarte verbrauchen, und wenn ja, warum. :D

Bei BF V hat es meines Wissens nach mehr verbraucht. Deshalb musste Digital Foundry die Texturqualität bei der RTX2060 eine Stufe verringern.
 
wenn ich im Koffer was komprimiere bekomme ich im kleineren Koffer das selbe unter wie im größeren Koffer gegebenenfalls genügend um mit 4K Unterhosen zurecht zu kommen

Ohne den 16GB Protz zu machen

Und da Nvidia nicht von vorgestern ist ,werden sie sich das bei der Entwicklung vorher sicher genau betrachtet haben, welche Vram Ausstattung ,mit der neuen optimierten Kompressionsmethode auch Sinn ergibt

hier nochmal das Whitepaper dazu

unbenannt-jpg.1036141


https://www.nvidia.com/content/dam/...ure/NVIDIA-Turing-Architecture-Whitepaper.pdf

man sieht also sehr schön das Turings 8GB nicht mehr direkt vergleichbar wären mit Pascals 8GB wenn es um die benötigte VRam Menge geht , und schon gar nicht mit AMDs Ausbau
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    660,1 KB · Aufrufe: 105
Und da Nvidia nicht von vorgestern ist ,werden sie sich das bei der Entwicklung vorher sicher genau betrachtet haben, welche Vram Ausstattung ,mit der neuen optimierten Kompressionsmethode auch Sinn ergibt
Na komm schon, bei aller Beweihräucherung deinerseits, auch du weißt das es nicht die ersten Karten wären die an VRAM Mangel leiden würden.
Wobei ich 16GB auch weiterhin nicht als nötig empfinde, aber für über 300Euro würde ich nichts mit unter 8GB kaufen.
 
Mal eine Frage zur V-Ram Nutzung:

Wie verhält sich der V-Ram Verbrauch eigentlich aktuell mit aktivierten RTX Features wie Ray Traycing und Co. vs deaktivierten RTX Features, also normalen Einstellungen, welche auch die R VII beherrscht?

Ich meine, müsste der V-Ram Verbrauch mit aktivierten RTX Features nicht Unterschiedlich sein, da ja völlig andere Berechnungen, somit auch andere Kompressionen, Beleuchtungen usw stattfinden?

Ein Vergleich wie groß die Abweichungen der V- Ram Auslastung in beiden Szenarien sind würde mich sehr interessieren, und auch, ob aktivierte RTX Features oder deaktivierte RTX Features mehr oder weniger V-Ram der Grafikkarte verbrauchen, und wenn ja, warum. :D

Digital Foundry hatte das mal getestet … Desto mehr RTX umso höher der Speicherbedarf. Sie hatten das mit BFV ausprobiert und mit "RTX Hoch" waren sie direkt im Speicherlimit, was niedrigere FPS zur Folge hatte, was sie auch mit anderen Einstllungen nicht beeinflussen konnten. Bei "RTX Mittel" lief es etwas unter dem Sppeicherlimit und sie hatten höhere FPS die auch wieder mit anderen Einstellungen skalierten.

Der Bericht (Video) ist schon ein paar Wochen her und welche Karte sie dabei benutzt haben, weiß ich leider auch nicht mehr.
 
Ist ja auch logisch das RT mehr Vram brauch.

Die ganze Vram Debatte ist eh unleidig. Zeigen die Nvidia Karten überhaupt die genaue Allokation an? Meine Pascal konnte das nicht. Da wurde einfach ein Vram Wert "verbucht".
Soweit ich weiß, verbucht der Nvidia Treiber auch nie laut Anzeige den vollständigen Vram.
Normalerweise teilen Engines aber die Allokation in 2-3 Teile auf.
1.Feste Allokation, quasi der Mindestwert der eingebucht wird.
2. Dynamische Allokation, hier wird rein gestreamt, verworfen, zur festen Allokation zugeordnet etc.
3. Vulkan nutzt sogar 3 sogenannte Heaps. Einmal die GPU Daten, einmal CPU zur GPU und einmal GPU zur CPU.
Vulkan Device Memory - GPUOpen
Die Heaps sieht man hier ganz gut.
2019.03.04-18.31.jpg
Hier wird ja sogar noch angezweifelt das HDR mehr Vram benötigt, da fällt mir wirklich nichts mehr zu ein.
 
Zuletzt bearbeitet:
Zurück