• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

LastManStanding

PCGH-Community-Veteran(in)
Gerade DLSS könnte das Grafikkartenleben deiner GTX 1080Ti verlängern. Wenn ich mir da Death Stranding ansehe,
wo mal einfach in 4K so 35% mehr FPS bei besserer Qualität draufgepackt werden.
Meine RTX 2070 super freut sich darüber, daß sie (Dank DLSS) bleiben durfte und die GTX 1080Ti gehen mußte :D.
Richtig "könnte"
abgesehen davon nutze ich von Nvidia eigentlich gar nichts außer dem Treiber ich nutze bei jeder installation
NV-Cleaninstall. Dieses ganze Autooptimierung Ghostplay Ansel...etc, inclusive der Ständigen Kommunikation stören mich etwas. Und Daten beim Spielen zu streamen finde ich vom Gedanken her etwas negativ.

Ich Spiele eigentlich immer Offline mit 2 Ausnahmen. Diese ganzen Updates und ungewollten "verbesserungen" obwohl das Spiel schon vorher gut lief... Naja jeder so wie er mag.

Ray Tracing und "KI´s" sind tolle sachen ohne Zweifel und bringen ganz sicher etwas, je nach dem was man erwartet. Aber für mich ist beides noch nicht 100% Spruchreif.
 

deady1000

Volt-Modder(in)
Aber halt (leider) auch nur in Deiner Welt …
Wieso? Die meisten Titel, die RT unterstützen, unterstützen auch DLSS. Die Entwickler packen in der Regel gleich beides rein. Schau hier in die Listen (ergänzen sich gegenseitig - es fehlen untereinander viele Spiele):



Es kommen ständig neue Games hinzu. DLSS wird auch oft nachträglich eingebaut, also auch wenn da jetzt einige kommende Spiele mit RT aber ohne DLSS stehen, muss das in der Zukunft nicht so bleiben.

AMD muss halt zusehen das sie Super Resolution auf den Markt bekommen, dann könnte bei neuen Titeln die RT Performance unter umständen sehr passabel werden.

Mal schauen. AMDs Super Resolution basiert nicht auf Machine Learning und trainiertem neuronalem Netz mit 16K-Bildmaterial und da haben sie schon einen großen Nachteil. Es wird sicherlich die Leistung verbessern, aber ob es die Optik verbessert ist noch ziemlich zweifelhaft. AMD gibt das "open source" an die Entwickler weiter nach dem Motto ' hier macht mal, viel Glück'.
 
Zuletzt bearbeitet:

Edelhamster

Software-Overclocker(in)
Eventuell eine Folge davon, wie AMD es macht, vielleicht auch nur fehlende Optimierung.

Auch in diesem Video sieht man immer wieder in den Pfützen, dass RT da noch nicht ganz funktioniert:
Man sollte immer bedenken, dass BF V mit das erste RT fähige Game war.
Da wird auch viel getrickst, dass es wie RT aussieht, es sich am Ende aber gar nicht darum handelt.
Wenn ein Flugzeug beispielweise in der Ferne explodiert und sich die Explosion im Meer spiegelt ist die Spiegelung sowohl mit, als auch ohne RT gleichermaßen sichtbar.
RT findet hier nur auf wenigen ausgewählten Oberflächen und in sehr begrenztem Maße, mit sehr niedriger Genauigkeit, Verwendung.

Eine 3080 ist darüber hinaus definitiv auch nicht in der Lage in 4K die 60FPS in BF V zu halten.
Auf der Salomonen Map droppen die FPS bspw. in den niedrigen 20ér Bereich. Das ist unspielbar. Zudem hat die 3080 in diesem Szenario schon mit Speicherbeschränkungen zu kämpfen. Warum Geforce Experience dafür dann auch die Grafiksetting und Textursettings empfiehlt zu reduzieren.

Ist also gehopst wie gesprungen, die Radeon´s schaffen es nicht, die Nvidia Karten aber auch nicht, laufen zudem ja auch noch in Speichertrouble.

Ein schönes Beispiel wie grandios Raytracing bei Nvidia für BF V umgesetzt ist könnt Ihr euch ja mal in meinem folgenden kurzen Videoclip von ner 3080 anschauen.
Da kommt kein DLSS zum Einsatz, was nebenbei wie allseits bekannt hier so schlecht umgesetzt ist, dass nicht mal Nvidia die Nutzung empfiehlt, aber das nur am Rande, was hier mit aktivem RT auf der Wasseroberfläche abläuft ist unter aller Sau.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ohne RT (rechtes Bild) sieht die Wasseroberfläche vernünftig aus. Links RT on.

BFV_Salomonen_NV_RT_marked.jpg


Die Stelle gucke ich mir zum Vergleich mal als erstes an sobald meine Radeon da ist.

Position.jpg
 

Bl4ckR4v3n

Freizeitschrauber(in)
Wenn ich mich anstatt einer 6900XT (1000 €) für eine 3090 (1500 €) entscheiden würde, muss ich 50 % oben drauf legen ! Oder gibt es die 3090 neuerdings für 1330 € ?!? ;-)

MfG Föhn.
Bitte lies meinen Beitrag nochmal...
Deine Aussage sie ist 50% günstiger ist und bleibt falsch! Und das die 3090 50% teurer ist sage ich auch! Durch das Wort "günstiger" bzw. "teurer" hast du die Basis verändert. Bitte setze dich mit dem Thema auseinander, du scheinst damit Probleme zu haben...

Auch wenn es eine gemeinsame API ist, kam BF5 deutlich vor DX12 Ultimate.
DICE sagte selbst, dass die Implementierung in BF 5 inkompatibel zu allem sein wird, was AMD bringt.
Wahrscheinlich meinten sie die Optimierungen für RT - Zusammenfassen von Objekten, variable RT Details, je nach Objekt und Reflektion (Da fällt mir das berühmte Beispiel der leeren Straßenbahn ein, bei der je nach Fläche mal mehr, mal weniger detailliert Strahlen verteilt wurden).
Man hat dir in einem anderen Thread bereits gesagt dass du endlich mal eine Quelle zitieren solltest, ansonsten bleibt es einfach nur eine haltlose Behauptung. BF V läuft auch mit RT auf AMD Karten. Inkompatibel ist es schonmal nicht!
Nur weil dir die Performance nicht passt stellst du dich die ganze Zeit hin und willst Benches und vergleiche als Invalide bezeichnen und kannst nicht einmal eine Quelle Zitieren die das auch mal belegt.
Warum hat sich bis heute AMD bei keinem Reviewer o.ä. gemeldet und denen einen Hinweis gegeben? Das wäre wohl schnell, einfach und würde genau sowas von den größeren Outlets verhindern die genau diese Spiel getestet haben!
 

Mitchpuken

Software-Overclocker(in)
Betrachtet man es vernünftig, dann liegen zwischen einer 6800XT und 3090 gerade mal 23% Plus an Leistung für die 3090 in allen getesteten Auflösungen. Legt man das ganze vram und dlss blabla in Zukunft so oder so mal beiseite, dann weiß ich nicht, wie die eine oder andere Karte noch einen realen Unterschied machen soll.

50fps vs 60fps, 120fps vs 144fps usw. und lässt sich über diverse Einstellungen ingame erreichen. Das reicht doch für die nächsten 1 bis 2 Jahre für den normalen Gamer aus. Dann hat man Zeit und kann in Ruhe die ganzen super duper Features abwarten und die Entwicklung bzw. den Einfluss der Konsolen beobachten.
 

deady1000

Volt-Modder(in)
Wenn ich mich anstatt einer 6900XT (1000 €) für eine 3090 (1500 €) entscheiden würde, muss ich 50 % oben drauf legen ! Oder gibt es die 3090 neuerdings für 1330 € ?!? ;-)

MfG Föhn.
Naja dafür ist die RTX3090 auch mit Raytracing und mit DLSS fast doppelt so schnell, wie die RX6900XT ohne Raytracing und ohne DLSS . Übrigens ohne DLSS und mit Raytracing sei Cyberpunk auf Ultra/Hohen Einstellungen mit jeder Karte praktisch unspielbar auf 4K.

mit RT und DLSS.png ohne RT und DLSS.png

Für BigNavi gilt also bei dem Game:
Regler nach links oder RT aus.

Außer man spielt auf FullHD mit mittleren Settings und ohne RT, dann geht's auf einmal. :D
(Wobei hier wohl Denuvo bzw die CPU aktuell noch limitieren soll, also da kann man es noch nicht beurteilen.)

Cyberpunk-2077-1080p-Medium.png
 
Zuletzt bearbeitet:

SFT-GSG

Software-Overclocker(in)
Betrachtet man es vernünftig, dann liegen zwischen einer 6800XT und 3090 gerade mal 23% Plus an Leistung für die 3090 in allen getesteten Auflösungen. Legt man das ganze vram und dlss blabla in Zukunft so oder so mal beiseite, dann weiß ich nicht, wie die eine oder andere Karte noch einen realen Unterschied machen soll.

50fps vs 60fps, 120fps vs 144fps usw. und lässt sich über diverse Einstellungen ingame erreichen. Das reicht doch für die nächsten 1 bis 2 Jahre für den normalen Gamer aus. Dann hat man Zeit und kann in Ruhe die ganzen super duper Features abwarten und die Entwicklung bzw. den Einfluss der Konsolen beobachten.
Das reicht sogar mehr als 2 Jahre, eher 4-5 wenn ich von der Entwicklung seit 2016 ausgehe. Selbst mir einer 1080ti kann man heute noch ganz passabel in 60fps zocken.

Wer heute eine 6800xt, 6900xt oder 3090 hat, kann die nächste Generation locker überspringen. Alle anderen haben entweder zu wenig Leistung oder der Speicher wird eher früher, als später überlaufen....

120vs144 merkt man nicht, aber 50vs60 sind dann schon ein Problem. Aber auch dann wird mal halt mal einen oder 2 Regler nach links bewegen können, ohne das gleich das Ganze Spiel "grottig" ausschaut.
 

GreitZ

Freizeitschrauber(in)
Ach komm schon AMD... da haut ihr eine derart performante und effiziente Karte raus aus einem dahingehend riesigen Rückstand, bringt innovative neue Techniken wie Infinitycache und SAM, kühlt 300+W leiser und einfacher als die Konkurrenz (wo der Rückstand noch viel grösser war), habt ein sehr ausgefeiltes Powergating mit flexiblen Taktdomänen und dann kriegt ihrs verdammt noch mal über Jahre nicht auf die Reihe dem vRAM nen PState zu verpassen dass die Karte auf YouTube keine gefühlten 50W fressen will?!

Das kann alles nich wahr sein. Das is wien hightech Rennmotor zu konstruieren aber dauerhaft unfähig zu sein den Leerlaufregler einzustellen. :wall:
Deine Probleme hätte ich gerne. Wenn du sonst nichts hast ist das wohl recht ordentlich was AMD auf dem Papier geliefert hat. Wobei andere Tests für die noch besser da stehen.
Für jeden der sich ne Grafikarte zulegen gedenkt soll sich anhand der Spiele aussuchen welche für ihn die beste erscheint.
Die Eierlegendewollmilchsau ist keine aller Karten. Falls sie jemals zu UVP verfügbar sind.
Für mich wäre es klar die 6800xt, da für mich Raytraycing keine Priorität darstellt.
 

FlexRX

Kabelverknoter(in)
Ja die boardpartner castom Karten werden mehr watt haben , wenn sie 350 watt bekommen würde dann sehe die Leistung anders aus aber so ist es besser finde ich. Die paar fps hin oder her
 

gerX7a

Software-Overclocker(in)
Mal so als Offtopic Einwurf.

Mindfactory hat gerade 5600X (379€), 5800X(549€) und 5900X(669€) Prozzis verfügbar.

Verkaufszahlen sehen echt krass aus dafür das kaum welche verfügbar sind/waren.
5600X - 3960 Stück
5800X - 2990 Stück
5900X - 2260 Stück
Was sollte daran "krass" sein? Die Zahlen zeigen lediglich die schlechte Verfügbarkeit der CPUs, da diese bereits seit knapp über 1,5 Monaten im Verkauf sind (bzw. eher sein sollten), der Bedarf hoch ist und es wurden dort dennoch nur so wenige abgesetzt.
Beispielsweise im April diesen Jahres, also weit nach Release und auch weit nach Weihnachten, setzte MF bspw. in nur einem einzigen Monat um:
  • 3600(X) : ~ 12.800 Stk.
  • 2600 : ~ 2.700 Stk.
  • 3700X/3800X : ~ 6.700 Stk.
Beispielsweise letztere beiden kann man in diesem Falle durchaus zusammen betrachten, da AMD diesmal nicht den Fehler gemacht hat eine nahezu gleichwertige CPU günstiger anzubieten, sondern sich (vorerst) bewusst dafür entschieden hat nur einen 5800X rauszubringen (zugunsten eines höheren Profits; immerhin 329 US$ beim 3700X vs. 449 US$ beim 5800X).

Einzig was man anmerken kann, ist, dass der 3900X in dem Monat mit rd. ~ 2.060 Stück nur geringfügig öfter verkauft wurde. Der Vergleich dürfte jedoch etwas schief sein, denn bei Zen3 werden viele Upgrader zuschlagen und die wenigsten werden hier ihren alten 3800X schlicht gegen einen 5800X tauschen wollen für die paar Prozentpunkte Mehrleistung, d. h. der Bedarf für den 5900X wird dieses mal zweifellos höher sein, während dessen Verfügbarkeit bereits hier am Anschlag sein wird, wohingegen die Verkaufzahlen des 3900X damals eher nicht seine Verfügbarkeit, sondern nur seine Begehrtheit zum Ausdruck gebracht haben dürfte.

Als weiteren Vergleich: Im Juli 2019 zum Zen2-Launch (also gar ein Zeitraum etwas kleiner als ein ganzer Monat) hat MF ~ 9.100 Zen2-basierte CPUs verkauft, die mal eben 49 % Anteil aller verkauften AMD-CPUs einnahmen bei MF. Im November'20, also deutlich nach dem Launch und über einen ganzen Monat hinweg brachte es AMD gerade mal auf ~ 5.600 umgesetzte Zen3-CPUs die zudem nur 16 % Anteil an den insgesamt umgesetzten CPUs hatte (und das trotz sukzessive erhöher Kapazitäten bei TSMC).
 
Zuletzt bearbeitet:

BigBoymann

Software-Overclocker(in)
Ich hab es schonmal angedeutet, aber mich würde die Spieleauswahl so langsam aber sicher mal interessieren. Dazu kommt dann ein gesteigertes Interesse an einzelnen Ausreißern?

Ich habe nicht einen einzigen "Exoten" der bei BigNavi nach oben ausreißt, dagegen sind so Exoten wie BlackMesa (30% für NV), Desperados (50%), Wolcen (42%) om Parcour die schon selten sind und derartig nach oben ausreißen, dass sie in meinen Augen den Gesamtindex massiv verfälschen dürften, ohne die drei würde es ca. 100% 6900XT zu 108% RTX3090 stehen, sind immerhin deutliche 5%, in dem Ranking wäre dann auch nur noch The Witcher mit einem deutlichen Ausreißer nach oben 137%, alle anderen spielen dann in der Liga wo man die Unterschiede auch erwarten würde, zwischen 90% und 118%.

Daher habe ich aktuell ein ernsthaftes Problem mit dem "Index", ich spiele von dieser Liste ganz aktuell zwei Spiele, insgesamt besitze ich 5 Spiele dieser Liste, Fallen Order, RDR2, Metro, CoD, BFV. In 3 dieser Spiele ist die 6900XT, bzw. eine AMD die bessere Wahl, in nur zwei Spielen ist die RTX besser, davon nur einmal deutlich. Ich denke, dass hier der Index so langsam aber sicher einmal angepasst werden sollte, da er schon ein deutlich falsches Bild liefert.

Was mich aber fernab des Indexes, den ich mir zur Not auch ganz gut selber zusammenstellen kann, für meine Bedürfnisse, interessieren würde. Wie sich diese extremen Ausreißer erklären, gerade Desperados läuft mit 50% mehr Leistung bei der 3090 zur 6900XT doch deutlich aus dem Ruder.
Gegenüber zustellen wäre in meinen Augen einmal, warum BF V so extrem gut performt, denn auch hier liegt dies ja doch deutlich außerhalb Quantile.

Für mich stellt sich ohnehin aktuell die Frage, warum, das werden aber sicherlich weitere Tests ergeben, AMD das Powerlimit gleichgehalten hat? Mit nur 50W mehr denke ich wäre man auf Augenhöhe zur 3090 gelandet und beim Verbrauch immer noch in ähnlichen Bereichen gelandet. Insgesamt sehe ich die AMD Karten derzeit mit SMA leicht vorne, der Unterschied ist aber nicht groß. Kommt RayTracing zum Einsatz dreht sich das Blatt.

Aktuell weiß ich echt nicht was ich kaufen soll und es wird darauf hinauslaufen, das zu kaufen, was zu guten Preisen verfügbar ist, zur Not warte ich halt noch ein oder zwei Monate. Vieleicht hat NV bis dahin ja auch SMA (oder wie auch immer dies heißen wird) verfügbar und das Blatt wendet sich nochmal, der 5900X ist jedenfalls sicher
denn bei Zen3 werden viele Upgrader zuschlagen und die wenigsten werden hier ihren alten 3800X schlicht gegen einen 5800X tauschen wollen für die paar Prozentpunkte Mehrleistung, d. h. der Bedarf für den 5900X wird dieses mal zweifellos höher sein,
Verstehe ich nicht?

Wieso sollte jemand von einem 3800 auf einen 5900 upgraden?

Ich denke sogar, dass der Bedarf (Upgrader) aktuell geringer sein wird, gab es nämlich bei Zen2 noch ein großen Rahmen zum Aufrüsten, beschränkt sich dies ja aktuell auf eine Generation MB Chipsätze. Bei Zen2 konnte ich mit dem 300er, 400er und dann eben auch 500er aufrüsten. Aktuell brauche ich einen 500er um upzugraden.

Upgrader werden wohl ausschließlich Early Adopter sein, der B550 Chip wurde so spät fertig, dass es wohl kaum Leute gibt, die auf den B550 gewartet haben und dann einen Zen2 in Erwartung der Zen3 Sätze ergattert haben, wird die Ausnahme sein. Insofern beschränkt sich die Upgradbereitsschaft vermutlich auf Early Adopter der x570 Chips und das sind dann fast ausnahmslos Enthusiasten, die bereits einen 3900X oder 3950X im Systen sitzen haben.

Ich denke, dass ein Großteil der 5600/5800 neue Systeme sind.
 
Zuletzt bearbeitet:

dw71

Kabelverknoter(in)
300 Euro Aufpreis für 6% mehr Leistung find ich zu viel. Das große Plus ist der Stromverbrauch.

Dass die 6800 XT für 6% weniger Leistung genauso viel Strom schluckt, ist ein dickerk Minuspunkt.

Aber auch die beiden nvidia-Flagschiffe kann man nicht uneingeschränkt empfehlen: bei der RTX 3090 ist der Preis viel zu hoch, bei der RTX 3080 ist 10 GB Speicher zu wenig.

Von da her bin ich genauso schlau wie vorher: welche der 3 Grafikkarten nehmen (RTX 3090 fällt wegen dem Preis sowieso durch)
 

Duvar

Kokü-Junkie (m/w)
Streitet doch nicht Leute, die Spitzenmodelle kosten immer deutlich mehr obwohl die kaum Mehrleistung bringen bzw sich die Mehrleistung in Grenzen hält. Gehen wir mal von der MSRP aus, wäre bei Nvidia die starke 3080 mit 699€ vs die etwas schnellere und mit deutlich mehr VRAM bestückte 3090 für 1499€, dies sind nicht nur 350€ Aufpreis wie bei AMD (6800XT vs 6900XT mit 649€ vs 999€) sondern satte 800€ Aufpreis, also die kostet mehr als das Doppelte der ihr im Nacken sitzenden 3080! Klar die 6900XT ist auch überteuert für das bissl Mehrleistung ggü der starken 6800XT.

Meiner Meinung nach schlägt Nvidia aber deutlich mehr über die Stränge als AMD, vor allem gibts genug Leute die teilweise up to 2000€ für ein Custommodell der 3090 zahlen (nicht gegen die Leute persönlich, viel Spaß mit euren geilen Karten). Wie dem auch sei, besser ist es eine Stufe tiefer einzukaufen, es sei denn ihr braucht als Nvidia User jetzt unbedingt 24GB VRAM. Ja die 10GB der 3080 kommen einem mickrig vor ggü den mächtigen 24GB der 3090 oder 16GB der AMD Karten. Muss aber anmerken mit meiner 1080Ti und 11GB hatte ich nie VRAM Probleme, klar kann man sich die Probleme erzwingen mit unsinnigen Settings, ganz ehrlich mittlerweile bin ich weich gekocht und würde mich sogar mit den 10GB anfreunden wenn ich die FE für 699€ bekommen würde.
 

hoffgang

BIOS-Overclocker(in)
Was sollte daran "krass" sein?

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.

Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.
 

gerX7a

Software-Overclocker(in)
[...] Verstehe ich nicht?
Wieso sollte jemand von einem 3800 auf einen 5900 upgraden? [...]
Es geht darum, dass mit der Zen2-Einführung sich viele User überlegt haben werden, ob sie mit 12 Kernen überhaupt sinnvoll was hätten anfangen können, sprich ob das P/L-Verhältnis für sie persönlich überhaupt gegeben war. Sieht man sich an wie vergleichsweise wenige 3900X verkauft wurden und wie viele dagegen zu selbst noch 2600er und 3600(X)ern griffen, ist das offensichtlich.
Dagegen jetzt, rund anderhalb Jahre später hat man eine entsprechende Basis und tendenziell werden sich nun eher mehr Kunden anstatt für ein Sidegrade für ein echtes Upgrade hin zu mehr Kernen entscheiden (zumal das offensichtlich auch das letzte Upgrade auf AM4 sein wird, sieht man mal von einem möglichen Refresh ab). Das Geld rauszuwerfen für ein paar Prozentpunkte Mehrleistung ausgehend von bspw. einem 3800X (oder selbst 3700X) auf einen 5800X ist es i. d. R. nicht wert (ja ich weiß, es gibt auch Leute, die auch für ein paar nichtige Prozetpunkte Geld ausgeben; der Markt in seiner Gesamtheit verhält sich da jedoch rationaler).

Selbstredend wird es auch Neukunden geben, deren Zahl/Anteil lässt sich aktuell jedoch nicht wirklich bestimmen, hingegen für Upgrader hat es AMD (nach Protesten ;-)) relativ einfach gemacht und auch hier im Forum zeigten sich viele Zen2-Besitzer (gemäß Signatur) die dennoch upgradeten oder noch wollen. Jedenfalls bspw. Steam zeigt keine sprunghafte Entwickung bei der CPU-Verteilung auf. Beispielsweise der Anteilzugewinn von Jul auf Aug war gar deutlich größer als der von Okt auf Nov, d. h. bisher alles vergleichweise unauffällig.

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.
Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.
Nö, das ist vollkommen langweilig und schon seit letztem Jahr so, dass Intel hier deutlich hinterher hink, also kalter Kaffee. Erwähnenswert wäre lediglich, dass Intel trotz dieser Entwicklung nicht irgendwann gegen Null läuft, sondern immer um die 4.000 - 5.000 CPUs pro Monat bei MF umsetzt. Für Intel selbst ist das aber eher ein kleinerer und irrelevanterer Markt. Die setzen in einem einzigen Quartal weiterhin mehr CPUs um, als AMD im ganzen Jahr.
Darüber hinaus habe ich selbst nichts von "Paperlaunch" geschrieben, und der Begriff ist im wörtlich zu nehmenden Sinne für alle Marktteilnehmer derzeit nicht anwendbar, da auch nVidia- und AMD-GPUs in relevanten Stückzahlen verkauft werden). Dennoch ist es in der aktuellen Situation nachvollziehbar, wenn einige Konsumenten/Forenuser (vereinfachend und teilw. auch verärgert) von "Paperlaunch" sprechen, denn die Verfügbarkeit ist schlecht.
Bei AMD ist das Thema m. eher ungefärbten M. n. gar kritischer zu sehen, weil es a) zwei Produktkategorien betrifft, CPUs und GPUs und weil b) zwei AMD-Officials (Azor und Herkelman) sich unmittelbar zuvor weit aus dem Fenster lehnten und gar eine gegenteilige Situation in Aussicht stellten und die Gelegenheit nutzten, um auf dem Konkurrenten rumzuhacken *), um dann aber nach dem Launch das genaue Gegenteil zu demonstrieren. In ihren Positionen wussten die sehr genau was auf den Markt zukommen würde. Das beste was sie hätten tun können, wäre in diesem Fall einfach die Klappe zu halten, wenn sie schon nicht hätten vorab eine Warnung aussprechen wollen, aber dann noch das genaue Gegenteil zu suggerieren. (Da muss ich immer wieder schmunzeln, wenn ich an die Fanboys denke, die über Nvidia's und Intel's Marketing herziehen.)

Und AMD wird zweifelsfrei auch noch mehr absetzen, denn der Bedarf ist hoch und die Marketing-Maschinerie läuft ja dieses Jahr fast durchgehend auf Hochturen um den Bedarf anzufeuern, das steht außer Frage, nur ging es hier nicht um den Bedarf, sondern um die Verfügbarkeit und die ist zurzeit grundlegend mau.
Einzig bei Zen3 könnte sich das nun langsam bessern (?), denn mit dem was MF zumindest (vorerst) listet, scheinen sie ja mal eine erste größere Charge erhalten zu haben, denn dort stehen immer noch die Zen3-Modelle im Shop ;-) (Wobei natürlich auch hier die aktuellen 379 € für einen 5600X nicht ganz zu den 299 € MSRP passen und bei den anderen Modellen sieht es nicht besser aus. **)

*) Ich weiß nicht ob es ein direktes englisches Äquivalent zu "Wer im Glashaus sitzt ..." gibt ;-) Vielleicht muss man aber nur ausreichend stumpf und abgezockt sein, um derartige Äußerungen zu tätigen, wenn man schon absehen kann, das die einem kurze Zeit später bereits um die Ohren fliegen werden.
Zudem ist die Community ja i. d. R. ausreichend "nachsichtig" bzw. das Langzeitgedächnis da eher etwas löchriger, wenn es um das eigene, heißgeliebte Brand geht.

**) Alternate dagegen hat den 5900X derzeit nicht, wohl aber den 5950X, wobei man das bei MF auch relativieren muss, da die zu dem 5900X auch nur angeben: "Lagernd > 5 Stk." :-D


[...] Meiner Meinung nach schlägt Nvidia aber deutlich mehr über die Stränge als AMD [...]
Das dürfte eher deinem Bauchgefühl zuzuschreiben sein oder aber du lässt dich zu sehr von dem hohen, absoluten Preis der RTX 3090er in die Irre führen. Aktuell tun sich da beide Brands nicht allzu viel und es ist schwer abzuschätzen wie viel da anteilig auf die Lieferketten und schlussendlich auf die Händler anzurechnen ist bzgl. der konkreten Preisgestaltung:
Alternate, das jeweils günstigste Modell ggü MSRP:
  • RX 6800 XT : 949 € vs. 649 € : +46 %
  • RTX 3080 : 849 € vs. 699 € : +21 %
  • RX 6800 : 759 € vs. 579 € : +31 %
  • RTX 3070 : 664 € vs. 499 € : +33 % (derzeit sogar verfügbar)
Mindfactory kann man hier derzeit nicht wirklich betrachten, da die aktuell, wie fast immer in den letzten Tagen, keine einzige RX 6000-Karte listen. Exemplarisch eine
  • RTX 3060 Ti : 549 € vs. 399 € : +38 %
Bewegt sich letzten Endes also alles in einem relativ vergleichbaren Rahmen bzgl. der Preisaufschläge.
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Eine 3080 ist darüber hinaus definitiv auch nicht in der Lage in 4K die 60FPS in BF V zu halten.
Auf der Salomonen Map droppen die FPS bspw. in den niedrigen 20ér Bereich. Das ist unspielbar. Zudem hat die 3080 in diesem Szenario schon mit Speicherbeschränkungen zu kämpfen. Warum Geforce Experience dafür dann auch die Grafiksetting und Textursettings empfiehlt zu reduzieren.

BF V VRAM Problem? Das glaube ich kaum, BF belegt oft keine 8 GB. Ich kann es bei mir auch noch mal mit RT noch mal checken, auch, wenn ich kaum glaube, dass sich etwas verändert hat.

Edit: 9,2 GB sind das Maximum, sprich eine 3080 mit ihren 10 GB hat sicherlich kein VRAM Problem.

Ist also gehopst wie gesprungen, die Radeon´s schaffen es nicht, die Nvidia Karten aber auch nicht, laufen zudem ja auch noch in Speichertrouble.

Ein schönes Beispiel wie grandios Raytracing bei Nvidia für BF V umgesetzt ist könnt Ihr euch ja mal in meinem folgenden kurzen Videoclip von ner 3080 anschauen.
Da kommt kein DLSS zum Einsatz, was nebenbei wie allseits bekannt hier so schlecht umgesetzt ist, dass nicht mal Nvidia die Nutzung empfiehlt, aber das nur am Rande, was hier mit aktivem RT auf der Wasseroberfläche abläuft ist unter aller Sau.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ohne RT (rechtes Bild) sieht die Wasseroberfläche vernünftig aus. Links RT on.

Anhang anzeigen 1345330

Die Stelle gucke ich mir zum Vergleich mal als erstes an sobald meine Radeon da ist.

Was ist an diesem Bild denn bitte falsch? Das RT Bild ist sicherlich nicht falsch.
Rechts ist schlicht extrem unrealistisch.
BF hat das meiner Meinung nach oft besser umgesetzt diese übertriebenen perfekten Spiegelungen in Spielen wie Spiderman und Watch Dogs sind extrem unrealistisch.
 
Zuletzt bearbeitet:

Spinal

BIOS-Overclocker(in)
Ich finde BF V sollte man nicht als Raytracing Benchmark heranziehen. Das wirkte wie nachträglich irgendwie mit dem Knüppel reinprogrammiert.
Gerade was Raytracing betrifft, sollte man da eher moderne Spiele nehmen.

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.

Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.

Vielleicht wird der Bedarf sogar noch größer wenn die Bios Versionen für die Kompatiblität mit älteren Mainboards rauskommen.
 

hoffgang

BIOS-Overclocker(in)
Nö, das ist vollkommen langweilig und schon seit letztem Jahr so, dass Intel hier deutlich hinterher hink, also kalter Kaffee. Erwähnenswert wäre lediglich, dass Intel trotz dieser Entwicklung nicht irgendwann gegen Null läuft, sondern immer um die 4.000 - 5.000 CPUs pro Monat bei MF umsetzt. Für Intel selbst ist das aber eher ein kleinerer und irrelevanterer Markt. Die setzen in einem einzigen Quartal weiterhin mehr CPUs um, als AMD im ganzen Jahr.
Klar, durch die ganzen OEMs und User, die keine Ahnung haben geht einiges an Intel CPUs raus.
Dennoch dürfte Intel der Trend nicht wirklich gefallen. Und dass Ryzen 5000 die Nachfrage an Comet Lake S quasi am Launchtag überholt ist jetzt auch keine Auszeichnung für Intel.


Bei AMD ist das Thema m. eher ungefärbten M. n. garkritischer zu sehen, weil es a) zwei Produktkategorien betrifft, CPUs und GPUs
Für AMD kritischer ja weil eben 2 Produktlinien betroffen sind. Aber Ryzen 5000 ist wesentlich besser gelauncht als so ziemlich alles andere in 2020 - wobei auch das noch deutlich verbesserungswürdig war.

und weil b) zwei AMD-Officials (Azor und Herkelman) sich unmittelbar zuvor weit aus dem Fenster lehnten und gar eine gegenteilige Situation in Aussicht stellten und die Gelegenheit nutzten, um auf dem Konkurrenten rumzuhacken *), um dann aber nach dem Launch das genaue Gegenteil zu demonstirieren. In ihren Positionen wussten die sehr genau was auf den Markt zukommen würde.
Das stimmt, das war vollkommen unnötig, gerade weil mans mit RDNA2 im Grunde schlechter hinbekommen hat als Nvidia mit der 3080. Und das heißt halt was.
 

RtZk

Lötkolbengott/-göttin
Für AMD kritischer ja weil eben 2 Produktlinien betroffen sind. Aber Ryzen 5000 ist wesentlich besser gelauncht als so ziemlich alles andere in 2020 - wobei auch das noch deutlich verbesserungswürdig war.

Wäre ich mir gar nicht mal so sicher. Ampere war offensichtlich doch in deutlich größeren Stückzahlen verfügbar ist als bekannt. Zumindest haben 2 Monate gereicht um über 200.000 (Schätzung anhand der aktiven Steam User und der 0,23 in der Steam Survey) 3080 an Steam User zu verkaufen, wie der Launch der 3070 und 3060 Ti abgelaufen ist muss sich erst noch zeigen, zumindest waren beide Modelle seit Launch immer verfügbar, wenn auch zu hohen Preisen.
Aber, ja Zen 3 war sicherlich kein Paperlaunch (vielleicht abgesehen vom 5950X).

Das stimmt, das war vollkommen unnötig, gerade weil mans mit RDNA2 im Grunde schlechter hinbekommen hat als Nvidia mit der 3080. Und das heißt halt was.

Das muss sich erst noch zeigen, werden wir ja sehen sobald die Karten in der Steam Survey auftauchen.


Man lässt sich immer leicht täuschen, dabei sind ein kleiner Teil der Retail Zahlen Deutschlands (nur Mindfactory) für den Weltmarkt absolut irrelevant.
 

hoffgang

BIOS-Overclocker(in)
@RtZk Ich rede vom Launch

Ampere war ne Katastrophe, aber wenigstens hat Nvidia nicht seine Referenzmodelle von Boardpartnern fertigen lassen und deutlich über UVP angeboten. Wenn ne 6800XT im Referenzdesign >850€ kosten soll nur weil sie von Asus oder sonstwem gefertigt wurde, dann halt ich das für ne dezente Frechheit.

Ampere FEs gibts nicht so oft, aber wenigstens zu UVP! Mit dem RDNA2 Launchtag hat AMD imho ganz tief ins Klo gegriffen, denn man hatte genug Vorlagen um zu wissen wie es NICHT geht und sich dann dazu entschieden noch einen drauf zu setzen.
 

onkel-foehn

Software-Overclocker(in)
Nein denn Eure tolle 6000er Reihe hat das Rennen gegen eine 3090er verloren.
NOCHMAL (diesmal aber mit drauf klicken) ! :D

p.s. Ja, es gibt auch andere Benches, da liegt die 3090 ganze 7 (!) % vorne.

p.p.s. außer Du meinst natürlich im Strom verbraten und Preis ?!?

MfG Föhn.
 

Anhänge

  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 26
  • 2000 €.jpg
    2000 €.jpg
    318,9 KB · Aufrufe: 16
  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 35
  • 7%.jpg
    7%.jpg
    316,5 KB · Aufrufe: 49
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
@RtZk Ich rede vom Launch

Ampere war ne Katastrophe, aber wenigstens hat Nvidia nicht seine Referenzmodelle von Boardpartnern fertigen lassen und deutlich über UVP angeboten. Wenn ne 6800XT im Referenzdesign >850€ kosten soll nur weil sie von Asus oder sonstwem gefertigt wurde, dann halt ich das für ne dezente Frechheit.

Ampere FEs gibts nicht so oft, aber wenigstens zu UVP! Mit dem RDNA2 Launchtag hat AMD imho ganz tief ins Klo gegriffen, denn man hatte genug Vorlagen um zu wissen wie es NICHT geht und sich dann dazu entschieden noch einen drauf zu setzen.
War das über UVP nicht ein rein deutsches Retail ding? Dachte im Ausland hat man es auf die UVP bei den Radeons geschafft.
Alles in allem waren beide Launchs fürn A....
Aber dieses Jahr ist alles andere als Normal und die Logistik scheint komplett am Limit zu sein. Schwierig zu sagen ob AMD und Nvidia wirklich die Schuld für den Mist tragen oder die Lieferkette mit reinspielt.
Man kann da nur auf 2021 und bessere Verfügbarkeiten hoffen.
 

Averey

PC-Selbstbauer(in)
Klar, durch die ganzen OEMs und User, die keine Ahnung haben geht einiges an Intel CPUs raus.
Ist ja lustig, schon wieder diese Unterstellungen, wenn man sich für einen anderen Hersteller wie du entscheidet, hat man plötzlich "keine Ahnung".

Dem gegenüber kann ich nur sagen, dass es genug Gründe für eine Intel CPU gibt, zum einen ein besseres Preis-Leistung Verhältnis. Für einen Sechskerner werden da nämlich mehr als 100 Euro weniger verlangt, die Differenz ist noch mehr zu anderen Anbietern wie MF. Manche verlangen für einen 5600X 400 Euro und sogar bis zu 500. Während man eine Intel CPU die nicht viel schlechter für ein Gaming-Szenario ist, schon für 240 Euro bekommt.

"Keine Ahnung" hat da weder Hand noch Fuß, und um es zu verdeutlichen, könnte man auch von allen AMD-Käufern die sich mal für eine der geilen Bulldozer-CPUs entschieden haben sagen, die hätten keine Ahnung, und das mit mehr Sinn dahinter, weil damals die Bulldozer viel schlechter waren, als zur Zeit Intel Core im Vergleich zu Zen3.
 

Edelhamster

Software-Overclocker(in)
BF V VRAM Problem? Das glaube ich kaum, BF belegt oft keine 8 GB. Ich kann es bei mir auch noch mal mit RT noch mal checken, auch, wenn ich kaum glaube, dass sich etwas verändert hat.

Edit: 9,2 GB sind das Maximum, sprich eine 3080 mit ihren 10 GB hat sicherlich kein VRAM Problem.
Kannst du mir denn dann erklären warum Geforce Experience die Texturqualität mindern möchte?
Würde doch ansonsten keinen Sinn ergeben, oder? :ka:
Die Framedrops sprechen meiner Meinung nach ebenfalls dafür, bist im entspannten Bereich unterwegs, zockst ne Weile und auf einmal siehst du dich einem 50% Performanceverlust ausgesetzt.
Kannst es gerne nachstellen zwischen Punkt D und E auf der Salomonen-Map.
Ganz einfach nen eigenen Community-Server öffnen, dann hast du ausreichend Zeit dafür.
GeforceExperience_BF_V_optimal_Settings.jpg



Was ist an diesem Bild denn bitte falsch? Das RT Bild ist sicherlich nicht falsch.
Rechts ist schlicht extrem unrealistisch.
BF hat das meiner Meinung nach oft besser umgesetzt diese übertriebenen perfekten Spiegelungen in Spielen wie Spiderman und Watch Dogs sind extrem unrealistisch.
Also ich denke mein Bildmaterial zeigt ganz gut auf, dass da iwas nicht ganz richtig aussieht. Hab im zweiten Bild hier die Abbruchkante im Dreiecksmuster 5 Meter vor den eigenen Füßen (mitte des Bildes) extra nochmal eingezeichnet.
Wie gesagt, ohne DXR ist die nicht da, und es liegt auch nicht an DLSS, das ist hier deaktiviert.
Diese Kante ist absolut unschön und beraubt einen mehr um die Immersion, als dass Raytracing zuträglich wäre.
BFV_Salomonen_NV_RT.jpg

BFV_Salomonen_NV_RT_marked.jpg

Im Bewegtbild, womit viele seit DLSS ja gerne versuchen zu kontern, sieht es noch dreimal blöder aus. Dafür hab ich ja extra das Video erstellt.

Geht mir nicht darum die Technik schlecht zu machen. Find es in WatchDogs Legion bspw. recht schön anzusehen, auch wenn es sicherlich auf übertriebene Art eingesetzt wird, aber was ich hier in BF sehe gefällt mir persönlich echt gar nicht.

Dem Dreicksmuster der Abbruchkante nach vermute ich, dass es sich um ein Bewusst genutztes Verfahren handelt, wodurch die DXR Berechnungsqualität bei Nvidias RTX-Karten in den einzelnen Bildarealen verschieden ausfällt. Hier halt ein Beispiel aufgezeigt wo es besonders drastisch ins Auge fällt.
Mich interessiert nun ob AMD´s RDNA´2 Karten unter Nutzung von Raytracing genau das gleiche Bild zeigen.

Hatte das im BigNavi&RDNA2 Laberthread schonmal angesprochen, darum auch vorhin das Bild mit dem Standort wo man die Szenerie genau findet und der Hint zwecks Community-Server um das entspannt begutachten zu können, da konnte mir bislang aber keiner helfen das nachzustellen.
Aber wayne, dann mach ich es in paar Tagen selber^^
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Kannst du mir denn dann erklären warum Geforce Experience die Texturqualität mindern möchte?
Würde doch ansonsten keinen Sinn ergeben, oder? :ka:
Die Framedrops sprechen meiner Meinung nach ebenfalls dafür, bist im entspannten Bereich unterwegs, zockst ne Weile und auf einmal siehst du dich einem 50% Performanceverlust ausgesetzt.
Kannst es gerne nachstellen zwischen Punkt D und E auf der Salomonen-Map.
Ganz einfach nen eigenen Community-Server öffnen, dann hast du ausreichend Zeit dafür.
Anhang anzeigen 1345368

Ich habe keine Ahnung, aber die Empfehlungen von GeForce Experience sind sowieso meist äußerst fragwürdig.
Framedrops könnten auch für eine extrem RT intensive Szene sprechen, es gibt z.B. in CoD Cold War eine Stelle in der Kampagne in der die FPS völlig zusammenbrechen, mit VRAM hat das aber sicherlich nichts zu tun.
Ich werde es mir mal selbst anschauen.

Also ich denke mein Bildmaterial zeigt ganz gut auf, dass da iwas nicht ganz richtig aussieht. Hab im zweiten Bild hier die Abbruchkante im Dreiecksmuster 5 Meter vor den eigenen Füßen (mitte des Bildes) extra nochmal eingezeichnet.
Wie gesagt, ohne DXR ist die nicht da, und es liegt auch nicht an DLSS, das ist hier deaktiviert.
Diese Kante ist absolut unschön und beraubt einen mehr um die Immersion, als dass Raytracing zuträglich wäre.
Anhang anzeigen 1345369
Anhang anzeigen 1345370
Im Bewegtbild, womit viele seit DLSS ja gerne versuchen zu kontern, sieht es noch dreimal blöder aus. Dafür hab ich ja extra das Video erstellt.

Geht mir nicht darum die Technik schlecht zu machen. Find es in WatchDogs Legion bspw. absolut klasse, aber was ich hier in BF sehe gefällt mir echt gar nicht.

Ah, ja ok, das ist mir vorher nicht aufgefallen, allerdings kann ich mich nicht erinnern, dass es in BF so aussieht :hmm: , das muss ich mir mal selbst anschauen, evtl. liegt es daran, dass hier nicht RT auf Ultra verwendet wird? Oder evtl. die eine Szene die verbuggt ist?
 

Edelhamster

Software-Overclocker(in)
Evtl. hast du Recht und der Spot zwischen Punkt D und E ist einfach außergewöhnlich RT intensiv. Mir fällt dort zwar nicht direkt ein Grund ein warum, aber man ist natürlich schon richtig tief um Dschungel drin.
Da wäre dann im Zweifelsfall halt schön gewesen wenn das ein wenig mehr optimiert worden wäre, weil so ist die Performance (zumindest auf dieser Map) echt zu inkonsistent um RT nutzen zu können.
Schau es dir aber echt gern selber mal an, wirst sicherlich finden was ich meine.

GeforceExperience optimiert ansonsten prinzipiell meiner Meinung nach schon ganz vernünftig.
Glaub auch Nvidia hat da schon seine Gründe warum Sie gewisse Entscheidungen wie hier im Hinblick auf die verringerte Texturqualität treffen.
Kann man auch iwie immer teils dran riechen, BF hat diese GPU-VRAM Beschränkungsoption, die GFE ebenfalls aktiviert, und auch in CoD:CW finden wir jetzt eine Option wie weit der VRAM ausgelastet/begrenzt werden soll.
Wird dann mein ich versucht mit mittlerer Einstellung unter 9GB zu bleiben

Kannst du dich dabei noch erinnern welche Stelle das in CoD genau ist die du mit übermäßiger RT-Last in Erinnerung hast? Würde ich mir rein Interesse halber dann auch gern mal anschauen, ob man iwie Rückschlüsse ziehen kann, ob jetzt übermäßige Vegetation und Verschattung dafür verantwortlich sind, oder es sich einfach um ein extrem großes Außenareal handelt?

Bezüglich RT Ultra oder nicht in BF V, du kannst DXR nur aktivieren oder deaktivieren. Da gibt es keine Qualitätsstufen zum Auswählen.
 

Luebke82

Freizeitschrauber(in)
Was mir bei den AMD Karten gefällt, dass sie wesentlich effizienter sind als die Nvidia Karten. Wenn ich dann 5fps oder so weniger habe, dafür aber kühler/leiser/effizienter bin ist mir das persönlich lieber als (teilw. über) 350W zu verheizen
Dann schau dir mal den Effizienzvergleich auf CB an. Dann wirst du sehen, dass wenn man beide Karten auf die gleiche Leistungsaufnahme bringt, die 3090 dann an der 6900XT vorbeizieht in der Effizienz. Also wenn man wirklich Wert darauf legen sollte, kann man mit der 3090 auch da besser mit dastehen. ;-)

Screenshot 2020-12-09 173654.jpg
 
Zuletzt bearbeitet:

Duvar

Kokü-Junkie (m/w)
Dann schau dir mal den Effizienzvergleich auf CB an. Dann wirst du sehen, dass wenn man beide Karten auf die gleiche Leistungsaufnahme bringt, die 3090 dann an der 6900XT vorbeizieht in der Effizienz. Also wenn man wirklich Wert darauf legen sollte, kann man mit der 3090 auch da besser mit dastehen. ;-)

Anhang anzeigen 1345372
Da sieht man gut wie sehr Nvidia die Brechstange ausgepackt hat um vor AMD zu liegen.

Screenshot_113.png


In neueren Games würden die Charts anders aussehen.

Screenshot_111.png


AMD hat noch Probleme in 4k welche gefixt werden müssen.
Die 3090 wurde sozusagen viel stärker "undervolted" bzw PL gesenkt. Nicht verwunderlich das die besser Perf/Watt liefert so
 

Luebke82

Freizeitschrauber(in)
In neueren Games würden die Charts anders aussehen.
Du meinst die handselektierten Games in 1440p. :rollen: Das betrifft ja nun bei weitem nicht alle neuen Games. CP2077 wird es morgen wohl zeigen ;-)

Mich persönlich stört die Brechstange eh nicht, da ich das Powertarget noch hochziehe und aufs Maximum übertakte. Immerhin kann jeder selbst entscheiden mittlerweile, was seine Karte etwa verbrauchen darf.
 

Duvar

Kokü-Junkie (m/w)
Du meinst die handselektierten Games in 1440p. :rollen: Das betrifft ja nun bei weitem nicht alle neuen Games. CP2077 wird es morgen wohl zeigen ;-)

Mich persönlich stört die Brechstange eh nicht, da ich das Powertarget noch hochziehe und aufs Maximum übertakte.
CB schreibt: "In den sieben neuesten Spielen, die in diesem Fall nicht auch noch einmal getestet werden konnten, wäre eine Führung für AMD die Folge gewesen."
Klar sieht AMD nicht so gut aus in CP2077, so viel konnten wir schon sehen.
Wir könnten auch anders argumentieren und sagen, dass die 3090 mit 270W NUR NOCH 9-10% über einer deutlich günstigeren 6800XT mit 270W steht. OC Potential bei der 3090 ist eh murks solange nicht unter Wasser und ein guter Chip, die Teile rennen stark am Limit, wie gesagt Brechstange.
 

SilentHunter

Software-Overclocker(in)
@deady1000
Die Hardwarevorgaben für volle RT kompatibilität wie in der DX12 API festgelegt werden von beiden GPU Herstellern erfüllt. Da ja in der Regel bekanntlich viele Wege nach Rom führen oder wie im Falle von RT dies die Hardwareseitig speziefisch unterschiedlichen Umsetzungen der Vorgaben sind.

Vorteil NV:
Hier haben ihre Tensocores definitiv einen stärkeren Ansatz aus Leistungssicht gesehen als AMD zu bieten.
Die RT Leistung bei NV Karten ist jedoch sehr stark von der Kombination RT zusammen mit DLSS abhängig. DLSS bedarf jedoch einer entsprechenden wenn möglich best optimierten implemention in die Games durch die Entwickler. Ein DLSS das bis dato ohne Konkurenz war hatte somit auch die uneingeschränkte Gunst der Spieleschmieden.
Die interessanteste Frage wird da werden was die breite Masse der Entwickler machen wird.
Auf lange sicht die Optimierungszeit bevorzugt auf die immer grösserer werdende Basis die den offenen Standard nutzt verwenden oder zusätzlich noch Zeit und Geld für die NV Extrawurstoptimierung investieren obwohl sie mit dem offenen ja prinzipell genauso könnten es nur meist nicht wollen.

Wir wissen ja mittlerweile das eine gute optimierung selbst von PC exclusiven Spielen die letzten Jahre leider immer seltener geworden ist. Crossplattformentwicklung und Konsolenports stehen heute für die grossen Publisher meistens an erster Stelle.
Konsolen stellen heutzutage bei den meisten Entwickler wohl auch die Hardware Ausgangsbasis. Da die neuste Konsolengeneration dank AMD Hardware identisch zur aktuellen AMD HW wie sie auch in Gaming PCs steckt ist brauchts wohl auch keine Glaskugel um zu erahnen auf Hardware von welchem Hersteller die Entwickler in den nächsten Jahren die meiste Erfahrung sammeln werden.

Nachteile NV:
Tensocores erhöter Platzbedarf und mehr Verbrauch somit gibts weniger Chips pro Waver , mehr Abwärme benötigt stärkere Kühlung beides treibt die Kosten hoch und senkt die Marge.
 
Zuletzt bearbeitet:

RtZk

Lötkolbengott/-göttin
Evtl. hast du Recht und der Spot zwischen Punkt D und E ist einfach außergewöhnlich RT intensiv. Mir fällt dort zwar nicht direkt ein Grund ein warum, aber man ist natürlich schon richtig tief um Dschungel drin.
Da wäre dann im Zweifelsfall halt schön gewesen wenn das ein wenig mehr optimiert worden wäre, weil so ist die Performance (zumindest auf dieser Map) echt zu inkonsistent um RT nutzen zu können.
Schau es dir aber echt gern selber mal an, wirst sicherlich finden was ich meine.

Ich habe es mir jetzt mal angeschaut, das ist eine einzige Katastrophe auf Salomonen, Frame Einbrüche konnte ich keine feststellen.
Ich habe mal Pazifiksturm gegengetestet, dort ist der Übergang fließend und nicht zu sehen und sieht top aus, sprich kein Vergleich zu der anderen Map, das hat Dice an der Stelle mal richtig verbockt.


GeforceExperience optimiert ansonsten prinzipiell meiner Meinung nach schon ganz vernünftig.
Glaub auch Nvidia hat da schon seine Gründe warum Sie gewisse Entscheidungen wie hier im Hinblick auf die verringerte Texturqualität treffen.
Kann man auch iwie immer teils dran riechen, BF hat diese GPU-VRAM Beschränkungsoption, die GFE ebenfalls aktiviert, und auch in CoD:CW finden wir jetzt eine Option wie weit der VRAM ausgelastet/begrenzt werden soll.
Wird dann mein ich versucht mit mittlerer Einstellung unter 9GB zu bleiben

Auf Pazifiksturm geht der genutzte VRAM bis auf 10 GB hoch, bei der anderen Karte auf 9,5 GB, interessant, auf der Karte von vorhin waren es nur 9,2, scheint also stark zu variieren.
Allerdings denke ich nicht, dass diese 9,2 oder 10 GB tatsächlich vollständig benötigt werden, hier wäre mal ein Test von einem Nutzer hier im Forum mit einer 3080 interessant.

Kannst du dich dabei noch erinnern welche Stelle das in CoD genau ist die du mit übermäßiger RT-Last in Erinnerung hast? Würde ich mir rein Interesse halber dann auch gern mal anschauen, ob man iwie Rückschlüsse ziehen kann, ob jetzt übermäßige Vegetation und Verschattung dafür verantwortlich sind, oder es sich einfach um ein extrem großes Außenareal handelt?

Keine Ahnung ob das an RT lag oder an anderen fordernden Dingen wie Explosionen z.B. .
Es war die Szene als man an die Zeit im Vietnam zurückdenkt und sich am Ende eines Dorfes befindet, hier kommt einem ein Heli zu Hilfe der die Vietcongs in Stücke schießt, samt dem Tor und der Häuser drumherum. Ging glaube ich auf 20 FPS runter^^.

Bezüglich RT Ultra oder nicht in BF V, du kannst DXR nur aktivieren oder deaktivieren. Da gibt es keine Qualitätsstufen zum Auswählen.

Es gibt RT Qualitätsstufen, scroll mal weiter runter, ist der 2. letzte Regler.


Was man aber auch sagen muss, das Spiel ist immer noch eines der mit Abstand schönsten auf dem Markt, RT ist da nur das i Tüpfelchen, bei Pazifiksturm mit 4k maxed Settings an der Küste zu stehen ist einfach nur wunderschön.
 

Olstyle

Moderator
Teammitglied

Edelhamster

Software-Overclocker(in)
@RtZk Ja cool, danke für deine Eindrücke.

Der DXR-Quality-Slider unten ist mir bislang echt noch nicht aufgefallen. Schande auf mein Haupt - so oft im Menü gewesen. Aber nicht tragisch, war eh immer alles maxxed out^^
Guck ich mir später direkt nochmal an, vllt ist es mit DXR eine Qualistufe niedriger zockbar :daumen:
Ansonsten würde ich zustimmen, auf der Salomonen-Map fällt das am meisten auf, auf Pazifiksturm oder Wake Island sieht man es aber stellenweise auch. Vllt nicht ganz so ausgeprägt, obwohl, technisch werden da keine gravierenden Unterschiede auf den verschiedenen Map´s sein, würde mir also nicht direkt einleuchten warum es auf der andern Map besser sein sollte. Vllt hängt es mit den Lichtverhältnissen zusammen wie sehr das ins Auge fällt.

Ansonsten stimme ich dir zu, ich mag die Optik von BF V auch sehr. Hab schon gut paar Stunden darin versenkt - seit der Alpha^^
Damals noch die Vega64 unter Wasser durch 4K gequält :D
Die 3080 wird jetzt oft nicht einmal zu 50% ausgelastet, das ist schon ein anderes Level! (60FPS Lock)

Die Szene in CoD die du meinst kenn ich. Kann ich soweit auch bestätigen und war mir in der Kampagne gleichermaßen aufgefallen.
Ziemlich viel Vegetation dort wenn ich das richtig in Erinnerung habe.. muss ich nochmal rein in den Abschnitt.
 
Zuletzt bearbeitet:

Incredible Alk

Moderator
Teammitglied
Deine Probleme hätte ich gerne. Wenn du sonst nichts hast ist das wohl recht ordentlich was AMD auf dem Papier geliefert hat.
Ich sag ja dass es sehr ordentliche Karten sind, deswegen liste ich in dem Zitat ja auch die ganzen Fortschritte und Innovationen auf. Nur bei der "vRAM taktet bei geringster 2D-Last voll hoch"-Sache bin ich einfach ein gebrandmarktes Kind weil ich mich seit über 10 Jahren bei AMD darüber ärgere und selbst Stunden damit verbracht habe das manuell zu lösen (damals als man noch BIOS editieren konnte...).

Da ich selbst halt gefühlte 95% der Zeit mit Videokrams verbringe und nur einen kleinen Rest mit Spielen ist das Thema halt für mich relevant. Wie gesagt nicht wegen den 20W mehr oder weniger sondern einfach ich nenns mal aus idealistischer Sicht. Ich würde mich halt (zugegeben ja auch irrationalerweise) jedes Mal drüber ärgern wenn ichs sehe dass die Karte sich so verhält. Ist schwer zu erklären... das is wie wenn ich mit nem bekannten Auto fahre und er dauerhaft einen oder zwei Gänge niedriger (und entsprechend unnötig hoher Drehzahl) fährt als nötig. Das ist auch weder für Mensch noch Maschine ein problem und es ist ja nicht mein Benzin aber trotzdem dreht mein innerer Monk dann am Rad. :haha:
 
Oben Unten