AMD Radeon RX 6000: Navi 21 angeblich mit 16 GiB; Navi 22 mit 12 GiB

wenn Watch Dogs usw mit DLSS kommt, dann kommt auch rdna2 mit eigene dlss technik dank directML !

und jetzt ?

leute leute, ihr macht euch immer lächerlicher mit euren kommentare bzw argumente.
 
Ich würde es nicht als Allzweckwaffe beschreiben, aber als Feature scheint DLSS doch ganz nice zu sein, die meisten Tests waren davon recht angetan und scheinbar übertrifft es in manchen Belangen sogar natives 4K - natürlich muß es dafür in anderen Aspekten zurückstecken, völlig logisch.

Was 10GB betrifft, so scheint aktuell die Antwort auf die Frage "Reicht das?" zu sein "Ja.". Derzeit gibt es scheinbar keine Probleme mit den 10GB, die Tests sind da recht eindeutig. Ich bezweifle, dass sich das in den nächsten Monaten ändern wird. In nem Jahr? Vielleicht gibt es dann 1-2 Spiele, die sich über 12GB freuen würden - aber das bedeutet ja nur, dass man dann ein wenig an den Einstellungen drehen muss und nicht, dass plötzlich der Spieleentwickler vor der Tür steht und dich mit dem Baseballschläger bedroht.

Ob dann AMD die Nase vorne haben wird oder ob es dafür an anderen Ecken fehlt, kann man derzeit, mangels Reviews, natürlich nicht mal raten. Die Frage ist ja auch, welche Grafikkarten man in nem Jahr überhaupt vergleichen wird. Bis dahin sind ja schon wieder diverse andere Modelle auf dem Markt, z.B. 3080 20GB, vermutlich auch weitere Varianten als nur die ersten Modelle von Big Navi, etc.etc.
 
Eigentlich senkt DLSS den VRAM Bedarf kaum. Müssen sie wohl doch 6GB verbauen. :ugly:

Ich habe keine Karte die DLSS Supportet, der Kollege meint ja dass das massiv gesenkt wird dadurch :ka:
Er kann ja gerne eine Quelle dazu liefern, habe das nicht überprüft, kam mir aber auch wie Mumpitz vor.


Zur Hilfe kommen ihr gnädige Streaming-Systeme, welche den Grafikspeicher bis zu einer prozentualen Obergrenze adressieren und darüber hinaus einfach Texturdetails weglassen. Treuen PCGH-Lesern erzählen wir hier wahrlich nichts Neues, allen anderen sei aber gesagt: Was heute gerade so reicht, kann morgen schon zu wenig sein. Wir stehen am Rande einer neuen Konsolengeneration, welche neue Multiplattformspiele mit neuer Grafik und neuem Anspruch bringen wird. Zwar stehen auch neue Technologien wie Variable Rate Shading und DirectStorage in den Startlöchern, um die Effizienz zu erhöhen, bis zur Marktdurchdringung dieser Ideen wird jedoch erfahrungsgemäß viel Zeit vergehen. Wir reden hier von Jahren, nicht Monaten. Dem gegenüber steht die Tatsache, dass die meisten Entwickler keine Zeit haben, ihr Werk monatelang zu optimieren. Es wird immer Spiele geben, die sprichwörtlich laufen wie ein Sack Nüsse. Diesem Problem begegnen High-End-Spieler mit starker Hardware, mit reichlich Speicher. Aber genau dieser Puffer fehlt der Geforce RTX 3080 mit 10 GiByte. Speicherfresser wie Horizon: Zero Dawn, Ghost Recon Breakpoint und Wolfenstein Youngblood zeigen schon jetzt, wohin die Reise geht. Raytracing verschlimmert die Sache durch nochmals erhöhten Speicherbedarf, in vielen RTX-Titeln stellen schon jetzt 8 GiByte das Minimum dar, Minecraft RTX zeigt gar, wie man 10 und 11 GiByte zum Bersten bringt. Und das ist erst der Anfang, die Vorhut einer neuen Spiele-Generation. Schon in den kommenden Tagen wird die Geforce RTX 3080 in Crysis Remastered zeigen müssen, inwiefern ihre Kapazität für das "Morgen" genügt. Passend dazu arbeiten wir gerade an einer großen Messreihe, welche das Thema Grafikspeicher mit Fokus auf 10 und 11 GiByte Kapazität beleuchtet.

Nvidia wäre aus PCGH-Sicht gut damit beraten gewesen, die RTX 3070 mit 10 GiByte (320 Bit) auszustatten und die RTX 3080 mit 12 GiByte (volle 384 Bit) - jeweils zu einem etwas höheren Preispunkt (ca. 100 Euro). Mit dieser Konfiguration hätte man der drastisch erhöhten Rechenleistung ein adäquates Mindestpolster zur Verfügung gestellt, um für beinahe alle möglichen Spielchen rund um Grafikmods, höhere Auflösungen und künftige Spiele gewappnet zu sein. Man munkelt, dass Nvidia sich der knappen Speicherkapazitäten bewusst ist und in den kommenden Monaten RTX-30-Varianten mit verdoppelter Kapazität anbieten wird, etwa eine RTX 3070 mit 16 GiByte und eine RTX 3080 mit 20 GiByte. Sicher planen lässt sich damit jedoch nicht, zumal noch AMDs Antwort in Gestalt der Radeon-RX-6000-Reihe im November aussteht. Wer kann, der wartet. Und wer sich trotz der vorliegenden Fakten für eine Geforce RTX 3080 entscheidet, weiß, wo er im Falle des Falles ansetzen kann: Texturdetails runter, Spaß haben und schon mal für das nächste Upgrade sparen - das ist angesichts der fairen 699 Euro immer noch günstiger, als das Kapazitätsproblem mit einer RTX 3090 für 1.500 Euro zu erschlagen.
 
DLSS die Allzweckwaffe, am besten Nvidia verbaut 4GB VRAM, denn dank DLSS senkt man den VRAM Verbrauch ja massiv^^
10GB sind ja in Wirklichkeit 30GB.
Eigentlich senkt DLSS den VRAM Bedarf kaum. Müssen sie wohl doch 6GB verbauen. :ugly:

10GB sind 10GB. Grundsätzlich ist das schon mal ne ganze Menge an Platz für Texturen.
DLSS2.0 hilft den Speicherbedarf zu senken.

In Death Stranding beispielsweise sinkt der VRAM-Bedarf in 8K mit eingeschaltetem DLSS2.0 im Quality-Preset um durchschnittlich 30% und im Performance-Preset zwischen 30-45%.

DLSS2.0 knallt einfach rein.
Und das hier ist - nochmal - auf 8-fucking-K, nicht 4K.

You can see in my testing that having DLSS 2.0 enabled cuts down on the amount of VRAM used at 8K but a big chunk. Looking at the GeForce RTX 2080 Ti which uses over 10GB of VRAM at 8K without DLSS 2.0 enabled, but under 8GB of VRAM when DLSS 2.0 is enabled to the Quality preset.

9532_105_death-stranding-benchmarked-how-does-hideo-kojimas-game-run-at-8k_full.png



 
Kann Raff ja demnächst in seine Tests aufnehmen, wie das Ganze mit DLSS 2.0 aussieht.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wie viele Games supporten DLSS 2.0?
 
Also noch einmal langsam zum Mitschreiben falls der eigene Bias einfach überwältigend stark ist ... ;-)

Ghost Recon Breakpoint, 4K, Vulkan, Ultra Fidelity FX off
(dieses "Ultra" scheint aber nicht ausnahmslos jeden Slider auf Maximum zu setzen, denn andere Tests zeigen in diesem Fall gar noch niedrigere Bildrate an)

gemittelte Bildrate
o RX 5700 XT : 48,5 Fps
o RTX 2070 Super : 54,3 Fps (+12,0 %)
gemittelter GPU-Verbrauch in diesem konkreten Titel
o RX 5700 XT : 245,3 W
o RTX 2070 Super : 204,7 W (-16,6 %)
Perf/Watt (auf TBP)
o RX 5700 XT : 0,1977 Fps/Watt
o RTX 2070 Super : 0,2653 Fps/Watt (+34,2 %)
oder auch umgekehrt
o RX 5700 XT : 5,0577 Watt/Fps
o RTX 2070 Super : 3,770 Watt/Fps (-25,5 %)

Erfahrungsgemäß liegt es in derart gelagerten Fällen meist weniger an fehlenden Rechenkünsten sondern eher am Confirmation Bias. ;-)

Darüber hinaus der Vollständigkeit halber der Navi-Vergleich gegen die RTX 3080 FE:
o Fps : 103,0 Fps (+112,4 %)
o Watt [TBP] : 323,8 (+32,0 %)
o Fps/Watt : 0,3181 Fps/Watt (+60,9 %)
o Watt/Fps : 3,1447 Watt/Fps (-37,8 %)

Der Vollständigkeit halber gilt es zu berücksichtigen, dass die RX 5700 XT (verwende ich das üblich Jargon einiger besonderer Gesellen) von AMD auf maximale Leistung "geprügelt" wurde und damit vergleichsweise ineffizient ist. Die kleinere RX 5700 steht da schon deutlich besser da (0,2560 Fps/Watt), bietet aber auch nur eine geringere, absolute Leistung.

Also ich vertraue ja eigentlich Igor, aber dass eine 2070 Super in vielen dieser Spiele nur 180 Watt ziehen soll und die 5700XT dafür 250 Watt passt irgendwie A) nicht zu seinen früheren Messungen wo er sowohl 5700XT als auch 2070 Super zwischen 220 und 230 Watt typischer Weise gemessen hat und B) sind 180 Watt für die 2070 extrem wenig wenn man mal das mit anderen Reviews vergleicht:
Toms Hardware: Durchschnitt 218 Watt 5700XT, 213 Watt 2070 Super
AnandTech (Achtung hier total System Power): 5700XT 276Watt, 2070 Super 302 Watt
Oder eben Igor selbst: 5700XT 224 Watt, 2070 Super 228 Watt

Aber ok ... wenn Igor das so gemessen hat. Bitte.
Dennoch sehr verwunderlich wenn man seine Messungen hier anschaut. Da soll eine 2070 Super in den meisten Spielen nur zwischen 150 und 180 Watt und damit kaum mehr als eine 2060 Super ziehen? Unwahrscheinlich wenn man die obrigen Reviews ansieht.
 
10GB sind 10GB. Grundsätzlich ist das schon mal ne ganze Menge an Platz für Texturen.
DLSS2.0 hilft den Speicherbedarf zu senken.

In Death Stranding beispielsweise sinkt der VRAM-Bedarf in 8K mit eingeschaltetem DLSS2.0 im Quality-Preset um durchschnittlich 30% und im Performance-Preset zwischen 30-45%.

DLSS2.0 knallt einfach rein.
Und das hier ist - nochmal - auf 8-fucking-K, nicht 4K.



Anhang anzeigen 1334262


Tja schade ... dass dein DLSS 2.0 kein 8K rendert, sondern mit einer viel kleineren Auflösung und das dann hoch skaliert. Klar, dass dann weniger VRAM gebraucht wird.
8K-DLSS rendert dabei intern mit einem Neuntel der Pixel, dem sogenannten Ultra Performance Mode (2.560 x 1.440 Pixel basierend)
Quelle: https://www.golem.de/news/gaming-warum-dlss-das-bessere-8k-ist-2009-150620.html
Naja solange das dann auch wie echtes 8k aussieht von mir aus ...
 
Tja schade ... dass dein DLSS 2.0 kein 8K rendert, sondern mit einer viel kleineren Auflösung und das dann hoch skaliert. Klar, dass dann weniger VRAM gebraucht wird.
Ja ach. So funktioniert es eben. Denkste das weiß ich nicht? Sieht im direkten Vergleich, durch die ganzen intern angewendeten Filter dann halt trotzdem besser aus als das native unbearbeitete Bild. Und jetzt?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Solange ich nen würdigen Nachfolger für meine VII im Doppelpack bekomme mit mindestens 16gb vram soll's mir Recht sein, das Effizienz Argument welches Nvidia jahrelang hatte ist eh dahin

Die VII's kommen ins Regal, Sexy Karten einfach
 
Wie viele Games supporten DLSS 2.0?
Lustigerweise genau die Games wo ihr immer am rumjammern seid.

Eure All-Time Greatest zB:
Crysis Remastered
Cyberpunk 2077
MSFS 2020
Watch Dogs: Legion

Also da dürfte die RTX3080 dank DLSS2.0 schon mal leichtes Spiel haben, sobald es implementiert ist.

Hier noch ne Liste, die aber alt sein könnte.
Es sind gar nicht so wenig Spiele wie man meint und es werden durch RTX3000 wohl auch mehr werden.
Aktuell (??? ggf unvollständig!!!):

Amid Evil
Anthem
Battlefield 5
Control
Death Stranding
Deliver Us The Moon
F1 2020
Final Fantasy 15
MechWarrior 5: Mercenaries
Metro: Exodus
Minecraft RTX
Monster Hunter World
PlayerUnknown's Battlegrounds
Quake 2 RTX
Shadow of the Tomb Raider
Wolfenstein: Youngblood

Bestätigte (ggf schon implementiert... hab evtl ne alte Liste):

Ark: Survival Evolved
Assetto Corsa Competizione
Atomic Heart
Boundry
Call of Duty: Black Op Cold War
Crysis Remastered
Cyberpunk 2077
Darksiders 3
Dauntless
Doom Eternal
Dying Light 2
Enlisted
Fear the Wolves
Fortnite
Fractured Lands
Hellblade: Senua's Sacrifice
Hitman 2
Islands of Nyne
Justice
J3
Kinetik
Microsoft Flight Simulator 2020
Outpost Zero
Overkill's The Walking Dead
ProjectDH
Remnant: From the Ashes
SCUM
Serious Sam 4: Planet Badass
Stormdivers
Synced: Off-Planet
The Forge Arena
Vampire: The Masquerade - Bloodlines 2
Watch Dogs Legion
We Happy Few
World of Warcraft: Shadowlands
 
Ich bezweifle, dass zwei 3090 im SLI Betrieb "leichtes Spiel" bei Crysis Remastered haben würden ;-) Crysis war ja im unteren Bereich überraschend freundlich zu nicht-super-Rechnern, aber ab nem bestimmten Auflösungs/Detailgrad-Punkt lauten die Systemanforderungen schlicht "Irgendwas, das ein Zeitreisender aus dem Jahr 2075 mitgebracht hat.".
 
Ja ach. So funktioniert es eben. Denkste das weiß ich nicht? Sieht im direkten Vergleich, durch die ganzen intern angewendeten Filter dann halt trotzdem besser aus als das native unbearbeitete Bild. Und jetzt?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Mit reshade und Co kann man auch die Performance stark steigern bzw die Bildqualität, wenn man die Auflösung dementsprechend reduziert und nachschärft usw. War kaum zu unterscheiden vs DLSS 1.0, aber man muss ehrlich sein, DLSS2.0 ist schon sehr gut.
 
Leute, die 3090 ist doch bereits eine Totgeburt, nach den aktuellen Angaben erreicht diese ein Performance Plus von ca. 10% zur 3080. Wenn sich also jemand mit der 3080 anlegen kann, dann auch mit der 3090!
Was ist den das für ein dummer Spruch? Warum? Der Spruch zeugt von einer tiefen Ahnungslosigkeit, was da so gerade auf dem Markt los ist.

Für KI im ML/DL Umfeld wird die Karte garantiert ein Renner, ebenso für die ganzen Anwender wie Blender und Co. Videoschnitt wird sich noch genauer rausstellen- Vorher gabs nur eine RTX Titan mit dem VRAM für 2799 €. Und nun gibts das schneller und günstiger als eine Titan RTX. Die wird weggehen wie warme Semmeln, zwar nicht fürs Spielen, aber für anderes. Das ist von Nvidia sehr wohl gut durchdacht und überlegt. Wenn da AMD auf dem Feld ML/DL nicht gescheites bringt, sind die da weg vom Fenster für die nächsten Jahre!
 
Auch bei mir steht (eeendlich) nach über 7 Jahren ein neuer Unterbau an. So ein 4700/4900X samt 32-64GB RAM und ner M.2 sind bei mir auf jeden Fall fest eingeplant. Die GTX 1080 muss/darf erstmal weiterschuften, ich bin auf jeden Fall gespannt auf Big Navi.

Allerdings erwarte ich keine extreme Überpower wie so manche hier. Aber die RTX 3080 in Sichtweite wär schon schön, dazu ein ruhiges/ und vor allem effizienteres (Custom)-Design wie Ampere und ich bin überzeugt. Die Kohle liegt schon längstens bereit...

Ja dem stimme ich so zu, Priorität hat bei mir auch ganz klar, wie geschrieben, die CPU und Platform.
4700X/5700X oder 4900X/5900X wie er denn heißen wird oder vielleicht gibt es ja auch die 14 Kern Version.
32GB RAM auf jeden Fall und M.2 bitte 2x :ugly: einmal für Fenster und einmal für Spiele :)
Vielleicht baue ich den X5660 dann auch zum Homeserver aus und verbanne alle HDDs aus meinem PC.

Die GTX1080 wird auch erst mal noch bleiben (müssen) gibt ja noch nix Adäquates.
Spekuliere gerade auch auf den neuen Gigabyte G34WQC, wenn er denn mal lieferbar wäre... mit dem sollte die 1080 dann auch wieder eine bessere Figur machen als jetzt unter 4k.

Ich erwarte von Big Navi auch keine Wunder, wenn die Karte mit 16GB kommt und sich zwischen 3070 und 3080 einpendelt bin ich doch zufrieden, wenn der Preis dann passt. RT wäre echt cool zu haben aber ich mag eigentlich nicht mehr die RAM Politik von Nvidia unterstützen. Die meisten Spiele die ich heute noch spiele sind ja fast mit der 1080 noch zufrieden aber ich möchte auf 144Hz upgraden und da fehlt dann schon ein wenig die Puste, gerade bei jetzt 4k reicht es oft nicht mal für 60FPS.

Grüße aus dem Norden
 
Hier mal eine nette frische News, nicht das ihr die verpasst^^

 
Zurück