Radeon VII vs. Geforce RTX 2080: AMD stellt 16 GiByte HBM2 in den Mittelpunkt

Ab wann wäre ein VRAM-Bedarf denn echt?

Ruckler, plötzliches Aufsteigen und Absturz der Framerate (144Hz) Monitor. Andere Variante wären stillschweigender Austausch von Texturen, 4K Texturen werden dann mit 1080p geswappt, das Bild sieht dann unscharf und verschwommener aus, aber die Framerate ist wenigstens konstant. Die letzte Variante ist Texturestreaming.

Wobei Schafe89 etwas unter den Tisch kehrt. Der VRAM- Bedarf ist nie unecht. Das Laden allermöglichen Texturen in den VRAM auch ohne sofortigen Bedarf verhilft ruhigen Framekurven, weil nicht viel oder gar nichts aus dem DRAM nachgeladen werden muss.
 
Zuletzt bearbeitet:
Mich würde ja immer noch interessieren ob die Vega bzw. allgemein CGN Architektur so mittelmäßig ist im Vergleich oder ob die Spiele schlecht optimiert sind. Es gibt ja immer wieder ein paar Lichtblicke in denen das Potential aufblitzt, also muss ja doch bei den meisten Titeln einiges brach liegen.
Ich hätte es allerdings mutiger und besser gefunden die Karte zumindest auf 250W statt auf 300W zu trimmen und ein bisschen zu selektieren. Das wäre mit UV bzw. generell niedrigerer Spannung bei fast gleicher Leistung möglich gewesen. Die 2080 kann sie so oder so nicht schlagen.
 
16GB.... was sonst hat die R7 ja zu bieten? Klar, das man sich an diesen Strohhalm klammert. Allerdings sollte man es wirklich mit dem "Gaming" Slogan nicht übertreiben, das haben die Tests weltweit ja mehr als deutlich gemacht und wirkt bissl deplatziert.

Der HBCC wurde schon getestet von CB, nicht die Rede wert

AMD Radeon VII im Test - ComputerBase

Ich gebe einen scheiß darauf was irgendwer testet.
Ich spiele insurgency sandstorm und sage dir das im low setting und 2k fast überall 144 fps oder oft darüber, wenn ich es nicht begrenzen würde auf 143 fps hätte ich zumeist169.

Mein v RAM ist bis zum Rand mit 8gb gefüllt und durch den HBCC Speichercontroller der laut cb und nvidia fanboys nichts bringen soll, spiele ich mit 15 GB von 16 verfügbaren Arbeitspeichern absolut Ruckelfrei im Gegensatz wie ein Freund von mir der nen 8700k und ne 2080 nutzt nur träumen kann da er furchtbare Frameneinbrüche hat, weil kein hbcc möglich ist.
Die momente (wenn er nur geradeaus schaut ohne sich schnell zu drehen) hat er ebenfalls soviel frames wie ich auch.
Das gleiche Spiel in Rising Storm Vietnam 2.
Ich mache also 3 Kreuze, klopf auf den Tisch, hüpfen vor freude und lach mich tot wenn ich auch zukünftig gewollt schlechte Tests lesen werde, zu neuen AMD produkten.

Daraus erschließt sich mir persönlich auch die wichtigkeit, besser heute schon ne Graka von AMD mit 16 GB vram zu besitzen wohl gar nicht so unnütz ist wie man meint
Aber kaufen soll jeder was er möchte
 
Zuletzt bearbeitet:
Ruckler, plötzliches Aufsteigen und Absturz der Framerate (144Hz) Monitor. Andere Variante wären stillschweigender Austausch von Texturen, 4K Texturen werden dann mit 1080p geswappt, das Bild sieht dann unscharf und verschwommener aus, aber die Framerate ist wenigstens konstant. Die letzte Variante ist Texturestreaming.

Wobei Schafe89 etwas unter den Tisch kehrt. Der VRAM- Bedarf ist nie unecht. Das Laden allermöglichen Texturen in den VRAM auch ohne sofortigen Bedarf verhilft ruhigen Framekurven, weil nicht viel oder gar nichts aus dem DRAM nachgeladen werden muss.

Aktuell haben wir aber den Fall, dass Spiele zwar sichtbar streamen, aber dennoch extrem häufig versuchen die 8 GB nicht zu überschreiten, auch wenn mehr VRAM da ist.
Braucht man dann nicht mehr als 8 GB weil Spiele nicht mehr belegen, oder braucht man mehr damit die künstliche Grenze angehoben wird und das Streamen nachlässt? :D
 
Ich gebe einen scheiß darauf was irgendwer testet.
Ich spiele insurgency sandstorm und sage dir das im low setting und 2k fast überall 144 fps oder oft darüber, wenn ich es nicht begrenzen würde auf 143 fps hätte ich zumeist169.

Mein v RAM ist bis zum Rand mit 8gb gefüllt und durch den hbcc der laut cb und nvidia fanboys nichts bringen soll, spiele ich mit 15 GB von 16 verfügbaren Arbeitspeichern absolut Ruckelfrei im Gegensatz wie ein Freund von mir der nen 8700k und ne 2080 nutzt nur träumen kann da er furchtbare Frameneinbrüche hat, weil kein hbcc möglich ist.
Die momente (wenn er nur geradeaus schaut ohne sich schnell zu drehen) hat er ebenfalls soviel frames wie ich auch.
Das gleiche Spiel in Rising Storm Vietnam 2.
Ich mache also 3 Kreuze, klopf auf den Tisch, hüpfen vor freude und lach mich tot wenn ich auch zukünftig gewollt schlechte Tests lesen werde, zu neuen AMD produkten.
Aber kaufen soll jeder was er möchte

Also würdest du sagen das die 16 GB völliger Unsinn sind wenn du locker mit 8 GB VRAM und 16 GB RAM auskommt.
Ja, dann ist das doch eine Bestätigung aus den eigenen Reihen :lol:
 
Also würdest du sagen das die 16 GB völliger Unsinn sind wenn du locker mit 8 GB VRAM und 16 GB RAM auskommt.
Ja, dann ist das doch eine Bestätigung aus den eigenen Reihen :lol:

Entschuldige ich muss mich daher unverständlich ausgedrückt haben.
Mir ging es um die Wichtigkeit des HBCC speichercontrollers.
Die 16 GB Thematik sprach ich nicht direkt an.
Aber aus meiner Erklärung ist zu erkennen das es für mich bereits 2 dauerhaft genutzte Spiele gibt die 8gb vram total ausnutzen und von daher mehr verfügbarer vram heute schon nützlich sein kann.
Ich füge das meinem Text noch hinzu.

Auch verdeutlicht es wie gut es ist seine vega 1 zu behalten weil du durch den hbcc nicht in Gefahr läufst die nächsten 2 Jahre Vram Probleme zu bekommen die nvidia schon hat.
Wer eine 1080 ti mit 11 GB V ram besitzt könnte evtl auch noch ein Weilchen Ruhe haben.
Mir ist da nichts anderes bekannt
 
Zuletzt bearbeitet:
Entschuldige ich muss mich daher unverständlich ausgedrückt haben.
Mir ging es um die Wichtigkeit des HBCC speichercontrollers.
Die 16 GB Thematik sprach ich nicht direkt an.
Aber aus meiner Erklärung ist zu erkennen das es für mich bereits 2 dauerhaft genutzte Spiele gibt die 8gb vram total ausnutzen und von daher mehr verfügbarer vram heute schon nützlich sein kann.
Ich füge das meinem Text noch hinzu.

Auch verdeutlicht es wie gut es ist seine vega 1 zu behalten weil du durch den hbcc nicht in Gefahr läufst die nächsten 2 Jahre Vram Probleme zu bekommen die nvidia schon hat.
Wer eine 1080 ti mit 11 GB V ram hat könnte evtl auch noch ein Weilchen Ruhe haben.
Mir ist da nichts anderes bekannt

Im Endeffekt ist es ja gut das die Lösung funktioniert. Aber auch Nvidia nutzt Kniffe im Treiber um den Speicher ordentlich zu verwalten. Manchmal ist es Glück und manchmal Pech wie was läuft. Im Hardwareluxx Test der R7 hat die Vega64 mit Mikrorucklern in FF XV zu kämpfen, dagegen die 2080 keine Probleme, trotz vollem Speicher.
Ich bin übrigens Fan davon den RAM zu sharen, weil RAM aufrüstbar ist. Würde mich also freuen wenn dieses Thema weiter gefördert würde.
 
Cool wäre auch modulare Grafikkarten die ohne Lüfter und Kühlkörper ausgeliefert werden um dir freiheiten zu lassen was kühllösungen angeht.
Ebenso toll wenn gewünscht, seinen v ram nachrüsten zu können per erweiterungskit. Oder ne 2. Gpu auf dem Brett.
Das wärst doch.
 
Also bei mir wird in Resident Evil 2 in WQHD schon 12,5 GB angezeigt, wenn man die Texturen aufdreht! Dachte schon, da wäre was mit AMD am laufen:D Wenn man die Auflösung weiter über 100% dreht, geht der Verbrauch noch höher. Allerdings scheint die 11GB RTX 2080 Ti damit kein Problem zu haben. Habe es mit solchen Setttings absolut problemfrei durchgezockt!
 
Also bei mir wird in Resident Evil 2 in WQHD schon 12,5 GB angezeigt, wenn man die Texturen aufdreht! Dachte schon, da wäre was mit AMD am laufen:D Wenn man die Auflösung weiter über 100% dreht, geht der Verbrauch noch höher. Allerdings scheint die 11GB RTX 2080 Ti damit kein Problem zu haben. Habe es mit solchen Setttings absolut problemfrei durchgezockt!
Mal sehen wann der letzte endlich merkt, dass die Anzeige in den Optionen fehlerhaft ist und nichts mit der Realität zu tun hat.
 
Also haben wir mit der 2080 einen schnellen Chip dem künstlich die Vram Menge reduziert wurde und wir haben Vega II mit jede Menge Vram, aber fehlender Power im Chip.

Unterm Strich:
Man stelle sich nur eine 2080 im Preisbereich 600/700€ mit 11 oder gar 12 GB Vram vor, ggf. ohne RTX. Niemand hätte was zu meckern, eine klasse Karte ohne Schwächen, keine künstliche Leistungsbeschneidung oder das Gefühl, das Alleinstellungsmerkmal >8gb bleibt für die deutlich teurere 2080ti aufgespart.
In einem solchen Falle hätte AMD nichtmal den Ansatz eines Konters in der Hand. So bleibt immer, unabhängig davon wie Vega II derzeit performt (und das ist unter den Erwartungen einiger und auch unterhalb der Hoffnung meinerseits) der nagende Gedanke, was hätte sein können mit Turing.

Es ist nicht AMD die 16GB Vram auf den Markt werfen die diese Debatte gestartet haben, es war Nvidia die es AMD überhaupt erlaubt haben hier den Hebel anzusetzen.
Interessant ist doch dass Vega II in Wolfenstein II extrem bescheiden performt, obwohl es ein angeblicher AMD Titel ist (und die Nvidia Fraktion im Forum Zeter und Mordio gerufen hat, gleich 2 Vulkan Titel im Bench... SKANDAL!!), in BF5 und RE2 dagegen über oder auf Augenhöhe mit der 2080. Das lässt eine Resthoffnung auf kommende Spiele - allerdings nur, ich erwähnte es in einem anderen Post, wenn Vega II günstiger und besser verfügbar wird. Ansonsten bleibt das ganze eine kontrovers diskutierte Techdemo und mehr Material für "was hätte nur sein können wenn."
 
Aktuell haben wir aber den Fall, dass Spiele zwar sichtbar streamen, aber dennoch extrem häufig versuchen die 8 GB nicht zu überschreiten, auch wenn mehr VRAM da ist.
Braucht man dann nicht mehr als 8 GB weil Spiele nicht mehr belegen, oder braucht man mehr damit die künstliche Grenze angehoben wird und das Streamen nachlässt? :D

Ist schwer zu sagen. Beim Streaming geht es nicht nur um die verfügbare Menge an Speicher, sondern auch um die Übertragungsrate. Das ganze konnte man bei der Fury damals ganz gut sehen. Viele Spiele streamen viele Daten und der schnelle Speicher der Fury konnte die geringe Speichermenge ausgleichen wodurch einem Ruckler, Abstürze und matschige Texturen erspart blieben. Problematisch wurde es erst wenn wirklich mehr als 4GB VRAM gebraucht wurden wie z.B. ein stark gemoddetes Skyrim in 4k. Auf der anderen Seite hatte man die 980ti die zwar langsameren, dafür aber mehr Speicher und so eine Puffer fürs Streaming hatte.

Wann man wirklich mehr als 8GB VRAM braucht hängt wahrscheinlich sehr stark davon ab wie viel Speicher die kommenden Konsolen haben werden. In RE2 kann man extremes Streaming erzwingen wo der VRAM Bedarf stark nach oben geht und es durchaus sein kann, dass man matschige Texturen bekommt und kurze Ruckler. Ähnliches kann man auch aktuell in der Division 2 Beta sehen (habe ich z.B. in 3440x1440 auf ner 2080ti), jedoch kommt das im normalen Spielbetrieb eher selten vor, da man immer wieder Ladebildschirme bzw. Ladeabschnitte hat wo man sich nur langsam bewegen kann wodurch die GPU Zeit hat ungenutzte Daten aus dem VRAM zu schmeißen. Sprintet man aber einmal quer über die Karte ohne Dinge einzusammeln oder gegen Feinde zu kämpfen bekomme ich wie gesagt die 11GB VRAM voll und habe dann einen kurzen Ruckler und hier und da matschige Texturen. Sind für RE2 und Division 2 8GB VRAM schon jetzt zu wenig? Ich denke nicht, da sich die Frequenz der Ruckler und matschigen Texturen in Maßen hält und mir bisher nur in Szenarien aufgefallen sind, wo ich es spezifisch darauf abgesehen habe so viel Verbrauch wie möglich zu erzwingen. Spiele die wirklich mehr als 8GB VRAM benötigen, weil sie ansonsten unspielbar sind gibt es aktuell noch nicht.
 
Mal sehen wann der letzte endlich merkt, dass die Anzeige in den Optionen fehlerhaft ist und nichts mit der Realität zu tun hat.

Na wir haben doch jetzt die Fraktion, die uns durch LoD Vergleiche mit der Lupe im gezoomten Pixelbrei, was von fehlendem VRAM erzählen wird. :D
 
Es ist solange eine Lupe nötig bis Nvidia eine Art HBCC nutzt oder 16GB Vram verbaut, ab da ist es dann offensichtlich das Karten mit weniger Vram ein Spiel richtig mies aussehen lassen. ;)
 
Cool wäre auch modulare Grafikkarten die ohne Lüfter und Kühlkörper ausgeliefert werden um dir freiheiten zu lassen was kühllösungen angeht.
Ebenso toll wenn gewünscht, seinen v ram nachrüsten zu können per erweiterungskit. Oder ne 2. Gpu auf dem Brett.
Das wärst doch.

Afaik gibt es einen Hersteller, bin mir aber nicht sicher ob er tatsächlich in die EU liefert. Denn doch einige dürften tatsächlich in Richtung Custom Wakü tendieren

@hoffgang
Ich denk in 2020 dürfte Nvidia in 7nm etwas in dieser Richtung anbieten. Wenns dann meinen Wunschmonitor gibt, dürfen es gern 11 - 16gb sein. Aber ja, eine 2060 mit 8gb? Oder die 2080 schon mit 11? Es wäre in der Tat dann fast alternativlos. Bin hier sehr auf das 7nm Lineup gespannt! Die R7 kann mMn eigentlich im Preis nicht sinken, sonst läuft sie mit Verlust vom Band
 
Ist schwer zu sagen. Beim Streaming geht es nicht nur um die verfügbare Menge an Speicher, sondern auch um die Übertragungsrate. Das ganze konnte man bei der Fury damals ganz gut sehen. Viele Spiele streamen viele Daten und der schnelle Speicher der Fury konnte die geringe Speichermenge ausgleichen wodurch einem Ruckler, Abstürze und matschige Texturen erspart blieben. Problematisch wurde es erst wenn wirklich mehr als 4GB VRAM gebraucht wurden wie z.B. ein stark gemoddetes Skyrim in 4k. Auf der anderen Seite hatte man die 980ti die zwar langsameren, dafür aber mehr Speicher und so eine Puffer fürs Streaming hatte.

Wann man wirklich mehr als 8GB VRAM braucht hängt wahrscheinlich sehr stark davon ab wie viel Speicher die kommenden Konsolen haben werden. In RE2 kann man extremes Streaming erzwingen wo der VRAM Bedarf stark nach oben geht und es durchaus sein kann, dass man matschige Texturen bekommt und kurze Ruckler. Ähnliches kann man auch aktuell in der Division 2 Beta sehen (habe ich z.B. in 3440x1440 auf ner 2080ti), jedoch kommt das im normalen Spielbetrieb eher selten vor, da man immer wieder Ladebildschirme bzw. Ladeabschnitte hat wo man sich nur langsam bewegen kann wodurch die GPU Zeit hat ungenutzte Daten aus dem VRAM zu schmeißen. Sprintet man aber einmal quer über die Karte ohne Dinge einzusammeln oder gegen Feinde zu kämpfen bekomme ich wie gesagt die 11GB VRAM voll und habe dann einen kurzen Ruckler und hier und da matschige Texturen. Sind für RE2 und Division 2 8GB VRAM schon jetzt zu wenig? Ich denke nicht, da sich die Frequenz der Ruckler und matschigen Texturen in Maßen hält und mir bisher nur in Szenarien aufgefallen sind, wo ich es spezifisch darauf abgesehen habe so viel Verbrauch wie möglich zu erzwingen. Spiele die wirklich mehr als 8GB VRAM benötigen, weil sie ansonsten unspielbar sind gibt es aktuell noch nicht.

Ich kann aus der Division Beta genau das Gegenteil berichten, aber halt nur mit 2560x1440. @Ultra läuft es einwandfrei und smooth. Alle 30 min kommt kurz für ne Millisekunde mal ein Framepeak mal spürbar, mal nicht. Der belegte Vram ist immer zwischen 6-7 GB. Texturen sehen dabei immer gut aus. Hat die Beta eigentlich nen NDA? wenn nicht würde ich kurz nen 15 Min Vid hochladen...
 
AMD GCN hat echte 'PR' Probleme, Navi für <299$ ohne mindestens 16GB GDRR6 / HBM2 oder Mehr, wird kein 0815 AMD Gamer mehr kaufen .... btw. diese Next-Gen NAVI Generation ist eh jetzt schon 'Delayed' .... kein baldiger 7nm Navi Release im Sommer!

Erst in Q4 /2019 'Oktober' - wenn es nicht noch weitere Problem oder 'Sony PS5' Einsprachen gibt ....

>>> No AMD Radeon "Navi" Before October: Report | TechPowerUp

AMD "Navi" is the company's next-generation graphics architecture succeeding "Vega" and will leverage the 7 nm silicon fabrication process. It was originally slated to launch mid-2019, with probable unveiling on the sidelines of Computex (early-June). Cowcotland reports that AMD has delayed its plans to launch "Navi" all the way to October (Q4-2019). The delay probably has something to do with AMD's 7 nm foundry allocation for the year.

AMD is now fully reliant on TSMC to execute its 7 nm product roadmap, which includes its entire 2nd generation EPYC and 3rd generation Ryzen processors based on the "Zen 2" architecture, and to a smaller extent, GPUs based on its 2nd generation "Vega" architecture, such as the recently launched Radeon VII. We expect the first "Navi" discrete GPU to be a lean, fast-moving product that succeeds "Polaris 30." In addition to 7 nm, it could incorporate faster SIMD units, higher clock-speeds, and a relatively cost-effective memory solution, such as GDDR6
 
Zurück