AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Gerade DLSS könnte das Grafikkartenleben deiner GTX 1080Ti verlängern. Wenn ich mir da Death Stranding ansehe,
wo mal einfach in 4K so 35% mehr FPS bei besserer Qualität draufgepackt werden.
Meine RTX 2070 super freut sich darüber, daß sie (Dank DLSS) bleiben durfte und die GTX 1080Ti gehen mußte :D.
Richtig "könnte"
abgesehen davon nutze ich von Nvidia eigentlich gar nichts außer dem Treiber ich nutze bei jeder installation
NV-Cleaninstall. Dieses ganze Autooptimierung Ghostplay Ansel...etc, inclusive der Ständigen Kommunikation stören mich etwas. Und Daten beim Spielen zu streamen finde ich vom Gedanken her etwas negativ.

Ich Spiele eigentlich immer Offline mit 2 Ausnahmen. Diese ganzen Updates und ungewollten "verbesserungen" obwohl das Spiel schon vorher gut lief... Naja jeder so wie er mag.

Ray Tracing und "KI´s" sind tolle sachen ohne Zweifel und bringen ganz sicher etwas, je nach dem was man erwartet. Aber für mich ist beides noch nicht 100% Spruchreif.
 
Aber halt (leider) auch nur in Deiner Welt …
Wieso? Die meisten Titel, die RT unterstützen, unterstützen auch DLSS. Die Entwickler packen in der Regel gleich beides rein. Schau hier in die Listen (ergänzen sich gegenseitig - es fehlen untereinander viele Spiele):



Es kommen ständig neue Games hinzu. DLSS wird auch oft nachträglich eingebaut, also auch wenn da jetzt einige kommende Spiele mit RT aber ohne DLSS stehen, muss das in der Zukunft nicht so bleiben.

AMD muss halt zusehen das sie Super Resolution auf den Markt bekommen, dann könnte bei neuen Titeln die RT Performance unter umständen sehr passabel werden.

Mal schauen. AMDs Super Resolution basiert nicht auf Machine Learning und trainiertem neuronalem Netz mit 16K-Bildmaterial und da haben sie schon einen großen Nachteil. Es wird sicherlich die Leistung verbessern, aber ob es die Optik verbessert ist noch ziemlich zweifelhaft. AMD gibt das "open source" an die Entwickler weiter nach dem Motto ' hier macht mal, viel Glück'.
 
Zuletzt bearbeitet:
Eventuell eine Folge davon, wie AMD es macht, vielleicht auch nur fehlende Optimierung.

Auch in diesem Video sieht man immer wieder in den Pfützen, dass RT da noch nicht ganz funktioniert:
Man sollte immer bedenken, dass BF V mit das erste RT fähige Game war.
Da wird auch viel getrickst, dass es wie RT aussieht, es sich am Ende aber gar nicht darum handelt.
Wenn ein Flugzeug beispielweise in der Ferne explodiert und sich die Explosion im Meer spiegelt ist die Spiegelung sowohl mit, als auch ohne RT gleichermaßen sichtbar.
RT findet hier nur auf wenigen ausgewählten Oberflächen und in sehr begrenztem Maße, mit sehr niedriger Genauigkeit, Verwendung.

Eine 3080 ist darüber hinaus definitiv auch nicht in der Lage in 4K die 60FPS in BF V zu halten.
Auf der Salomonen Map droppen die FPS bspw. in den niedrigen 20ér Bereich. Das ist unspielbar. Zudem hat die 3080 in diesem Szenario schon mit Speicherbeschränkungen zu kämpfen. Warum Geforce Experience dafür dann auch die Grafiksetting und Textursettings empfiehlt zu reduzieren.

Ist also gehopst wie gesprungen, die Radeon´s schaffen es nicht, die Nvidia Karten aber auch nicht, laufen zudem ja auch noch in Speichertrouble.

Ein schönes Beispiel wie grandios Raytracing bei Nvidia für BF V umgesetzt ist könnt Ihr euch ja mal in meinem folgenden kurzen Videoclip von ner 3080 anschauen.
Da kommt kein DLSS zum Einsatz, was nebenbei wie allseits bekannt hier so schlecht umgesetzt ist, dass nicht mal Nvidia die Nutzung empfiehlt, aber das nur am Rande, was hier mit aktivem RT auf der Wasseroberfläche abläuft ist unter aller Sau.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ohne RT (rechtes Bild) sieht die Wasseroberfläche vernünftig aus. Links RT on.

BFV_Salomonen_NV_RT_marked.jpg


Die Stelle gucke ich mir zum Vergleich mal als erstes an sobald meine Radeon da ist.

Position.jpg
 
Wenn ich mich anstatt einer 6900XT (1000 €) für eine 3090 (1500 €) entscheiden würde, muss ich 50 % oben drauf legen ! Oder gibt es die 3090 neuerdings für 1330 € ?!? ;-)

MfG Föhn.
Bitte lies meinen Beitrag nochmal...
Deine Aussage sie ist 50% günstiger ist und bleibt falsch! Und das die 3090 50% teurer ist sage ich auch! Durch das Wort "günstiger" bzw. "teurer" hast du die Basis verändert. Bitte setze dich mit dem Thema auseinander, du scheinst damit Probleme zu haben...

Auch wenn es eine gemeinsame API ist, kam BF5 deutlich vor DX12 Ultimate.
DICE sagte selbst, dass die Implementierung in BF 5 inkompatibel zu allem sein wird, was AMD bringt.
Wahrscheinlich meinten sie die Optimierungen für RT - Zusammenfassen von Objekten, variable RT Details, je nach Objekt und Reflektion (Da fällt mir das berühmte Beispiel der leeren Straßenbahn ein, bei der je nach Fläche mal mehr, mal weniger detailliert Strahlen verteilt wurden).
Man hat dir in einem anderen Thread bereits gesagt dass du endlich mal eine Quelle zitieren solltest, ansonsten bleibt es einfach nur eine haltlose Behauptung. BF V läuft auch mit RT auf AMD Karten. Inkompatibel ist es schonmal nicht!
Nur weil dir die Performance nicht passt stellst du dich die ganze Zeit hin und willst Benches und vergleiche als Invalide bezeichnen und kannst nicht einmal eine Quelle Zitieren die das auch mal belegt.
Warum hat sich bis heute AMD bei keinem Reviewer o.ä. gemeldet und denen einen Hinweis gegeben? Das wäre wohl schnell, einfach und würde genau sowas von den größeren Outlets verhindern die genau diese Spiel getestet haben!
 
Betrachtet man es vernünftig, dann liegen zwischen einer 6800XT und 3090 gerade mal 23% Plus an Leistung für die 3090 in allen getesteten Auflösungen. Legt man das ganze vram und dlss blabla in Zukunft so oder so mal beiseite, dann weiß ich nicht, wie die eine oder andere Karte noch einen realen Unterschied machen soll.

50fps vs 60fps, 120fps vs 144fps usw. und lässt sich über diverse Einstellungen ingame erreichen. Das reicht doch für die nächsten 1 bis 2 Jahre für den normalen Gamer aus. Dann hat man Zeit und kann in Ruhe die ganzen super duper Features abwarten und die Entwicklung bzw. den Einfluss der Konsolen beobachten.
 
Wenn ich mich anstatt einer 6900XT (1000 €) für eine 3090 (1500 €) entscheiden würde, muss ich 50 % oben drauf legen ! Oder gibt es die 3090 neuerdings für 1330 € ?!? ;-)

MfG Föhn.
Naja dafür ist die RTX3090 auch mit Raytracing und mit DLSS fast doppelt so schnell, wie die RX6900XT ohne Raytracing und ohne DLSS . Übrigens ohne DLSS und mit Raytracing sei Cyberpunk auf Ultra/Hohen Einstellungen mit jeder Karte praktisch unspielbar auf 4K.

mit RT und DLSS.png ohne RT und DLSS.png

Für BigNavi gilt also bei dem Game:
Regler nach links oder RT aus.

Außer man spielt auf FullHD mit mittleren Settings und ohne RT, dann geht's auf einmal. :D
(Wobei hier wohl Denuvo bzw die CPU aktuell noch limitieren soll, also da kann man es noch nicht beurteilen.)

Cyberpunk-2077-1080p-Medium.png
 
Zuletzt bearbeitet:
Betrachtet man es vernünftig, dann liegen zwischen einer 6800XT und 3090 gerade mal 23% Plus an Leistung für die 3090 in allen getesteten Auflösungen. Legt man das ganze vram und dlss blabla in Zukunft so oder so mal beiseite, dann weiß ich nicht, wie die eine oder andere Karte noch einen realen Unterschied machen soll.

50fps vs 60fps, 120fps vs 144fps usw. und lässt sich über diverse Einstellungen ingame erreichen. Das reicht doch für die nächsten 1 bis 2 Jahre für den normalen Gamer aus. Dann hat man Zeit und kann in Ruhe die ganzen super duper Features abwarten und die Entwicklung bzw. den Einfluss der Konsolen beobachten.
Das reicht sogar mehr als 2 Jahre, eher 4-5 wenn ich von der Entwicklung seit 2016 ausgehe. Selbst mir einer 1080ti kann man heute noch ganz passabel in 60fps zocken.

Wer heute eine 6800xt, 6900xt oder 3090 hat, kann die nächste Generation locker überspringen. Alle anderen haben entweder zu wenig Leistung oder der Speicher wird eher früher, als später überlaufen....

120vs144 merkt man nicht, aber 50vs60 sind dann schon ein Problem. Aber auch dann wird mal halt mal einen oder 2 Regler nach links bewegen können, ohne das gleich das Ganze Spiel "grottig" ausschaut.
 
Ach komm schon AMD... da haut ihr eine derart performante und effiziente Karte raus aus einem dahingehend riesigen Rückstand, bringt innovative neue Techniken wie Infinitycache und SAM, kühlt 300+W leiser und einfacher als die Konkurrenz (wo der Rückstand noch viel grösser war), habt ein sehr ausgefeiltes Powergating mit flexiblen Taktdomänen und dann kriegt ihrs verdammt noch mal über Jahre nicht auf die Reihe dem vRAM nen PState zu verpassen dass die Karte auf YouTube keine gefühlten 50W fressen will?!

Das kann alles nich wahr sein. Das is wien hightech Rennmotor zu konstruieren aber dauerhaft unfähig zu sein den Leerlaufregler einzustellen. :wall:
Deine Probleme hätte ich gerne. Wenn du sonst nichts hast ist das wohl recht ordentlich was AMD auf dem Papier geliefert hat. Wobei andere Tests für die noch besser da stehen.
Für jeden der sich ne Grafikarte zulegen gedenkt soll sich anhand der Spiele aussuchen welche für ihn die beste erscheint.
Die Eierlegendewollmilchsau ist keine aller Karten. Falls sie jemals zu UVP verfügbar sind.
Für mich wäre es klar die 6800xt, da für mich Raytraycing keine Priorität darstellt.
 
Ja die boardpartner castom Karten werden mehr watt haben , wenn sie 350 watt bekommen würde dann sehe die Leistung anders aus aber so ist es besser finde ich. Die paar fps hin oder her
 
Mal so als Offtopic Einwurf.

Mindfactory hat gerade 5600X (379€), 5800X(549€) und 5900X(669€) Prozzis verfügbar.

Verkaufszahlen sehen echt krass aus dafür das kaum welche verfügbar sind/waren.
5600X - 3960 Stück
5800X - 2990 Stück
5900X - 2260 Stück
Was sollte daran "krass" sein? Die Zahlen zeigen lediglich die schlechte Verfügbarkeit der CPUs, da diese bereits seit knapp über 1,5 Monaten im Verkauf sind (bzw. eher sein sollten), der Bedarf hoch ist und es wurden dort dennoch nur so wenige abgesetzt.
Beispielsweise im April diesen Jahres, also weit nach Release und auch weit nach Weihnachten, setzte MF bspw. in nur einem einzigen Monat um:
  • 3600(X) : ~ 12.800 Stk.
  • 2600 : ~ 2.700 Stk.
  • 3700X/3800X : ~ 6.700 Stk.
Beispielsweise letztere beiden kann man in diesem Falle durchaus zusammen betrachten, da AMD diesmal nicht den Fehler gemacht hat eine nahezu gleichwertige CPU günstiger anzubieten, sondern sich (vorerst) bewusst dafür entschieden hat nur einen 5800X rauszubringen (zugunsten eines höheren Profits; immerhin 329 US$ beim 3700X vs. 449 US$ beim 5800X).

Einzig was man anmerken kann, ist, dass der 3900X in dem Monat mit rd. ~ 2.060 Stück nur geringfügig öfter verkauft wurde. Der Vergleich dürfte jedoch etwas schief sein, denn bei Zen3 werden viele Upgrader zuschlagen und die wenigsten werden hier ihren alten 3800X schlicht gegen einen 5800X tauschen wollen für die paar Prozentpunkte Mehrleistung, d. h. der Bedarf für den 5900X wird dieses mal zweifellos höher sein, während dessen Verfügbarkeit bereits hier am Anschlag sein wird, wohingegen die Verkaufzahlen des 3900X damals eher nicht seine Verfügbarkeit, sondern nur seine Begehrtheit zum Ausdruck gebracht haben dürfte.

Als weiteren Vergleich: Im Juli 2019 zum Zen2-Launch (also gar ein Zeitraum etwas kleiner als ein ganzer Monat) hat MF ~ 9.100 Zen2-basierte CPUs verkauft, die mal eben 49 % Anteil aller verkauften AMD-CPUs einnahmen bei MF. Im November'20, also deutlich nach dem Launch und über einen ganzen Monat hinweg brachte es AMD gerade mal auf ~ 5.600 umgesetzte Zen3-CPUs die zudem nur 16 % Anteil an den insgesamt umgesetzten CPUs hatte (und das trotz sukzessive erhöher Kapazitäten bei TSMC).
 
Zuletzt bearbeitet:
Ich hab es schonmal angedeutet, aber mich würde die Spieleauswahl so langsam aber sicher mal interessieren. Dazu kommt dann ein gesteigertes Interesse an einzelnen Ausreißern?

Ich habe nicht einen einzigen "Exoten" der bei BigNavi nach oben ausreißt, dagegen sind so Exoten wie BlackMesa (30% für NV), Desperados (50%), Wolcen (42%) om Parcour die schon selten sind und derartig nach oben ausreißen, dass sie in meinen Augen den Gesamtindex massiv verfälschen dürften, ohne die drei würde es ca. 100% 6900XT zu 108% RTX3090 stehen, sind immerhin deutliche 5%, in dem Ranking wäre dann auch nur noch The Witcher mit einem deutlichen Ausreißer nach oben 137%, alle anderen spielen dann in der Liga wo man die Unterschiede auch erwarten würde, zwischen 90% und 118%.

Daher habe ich aktuell ein ernsthaftes Problem mit dem "Index", ich spiele von dieser Liste ganz aktuell zwei Spiele, insgesamt besitze ich 5 Spiele dieser Liste, Fallen Order, RDR2, Metro, CoD, BFV. In 3 dieser Spiele ist die 6900XT, bzw. eine AMD die bessere Wahl, in nur zwei Spielen ist die RTX besser, davon nur einmal deutlich. Ich denke, dass hier der Index so langsam aber sicher einmal angepasst werden sollte, da er schon ein deutlich falsches Bild liefert.

Was mich aber fernab des Indexes, den ich mir zur Not auch ganz gut selber zusammenstellen kann, für meine Bedürfnisse, interessieren würde. Wie sich diese extremen Ausreißer erklären, gerade Desperados läuft mit 50% mehr Leistung bei der 3090 zur 6900XT doch deutlich aus dem Ruder.
Gegenüber zustellen wäre in meinen Augen einmal, warum BF V so extrem gut performt, denn auch hier liegt dies ja doch deutlich außerhalb Quantile.

Für mich stellt sich ohnehin aktuell die Frage, warum, das werden aber sicherlich weitere Tests ergeben, AMD das Powerlimit gleichgehalten hat? Mit nur 50W mehr denke ich wäre man auf Augenhöhe zur 3090 gelandet und beim Verbrauch immer noch in ähnlichen Bereichen gelandet. Insgesamt sehe ich die AMD Karten derzeit mit SMA leicht vorne, der Unterschied ist aber nicht groß. Kommt RayTracing zum Einsatz dreht sich das Blatt.

Aktuell weiß ich echt nicht was ich kaufen soll und es wird darauf hinauslaufen, das zu kaufen, was zu guten Preisen verfügbar ist, zur Not warte ich halt noch ein oder zwei Monate. Vieleicht hat NV bis dahin ja auch SMA (oder wie auch immer dies heißen wird) verfügbar und das Blatt wendet sich nochmal, der 5900X ist jedenfalls sicher
denn bei Zen3 werden viele Upgrader zuschlagen und die wenigsten werden hier ihren alten 3800X schlicht gegen einen 5800X tauschen wollen für die paar Prozentpunkte Mehrleistung, d. h. der Bedarf für den 5900X wird dieses mal zweifellos höher sein,
Verstehe ich nicht?

Wieso sollte jemand von einem 3800 auf einen 5900 upgraden?

Ich denke sogar, dass der Bedarf (Upgrader) aktuell geringer sein wird, gab es nämlich bei Zen2 noch ein großen Rahmen zum Aufrüsten, beschränkt sich dies ja aktuell auf eine Generation MB Chipsätze. Bei Zen2 konnte ich mit dem 300er, 400er und dann eben auch 500er aufrüsten. Aktuell brauche ich einen 500er um upzugraden.

Upgrader werden wohl ausschließlich Early Adopter sein, der B550 Chip wurde so spät fertig, dass es wohl kaum Leute gibt, die auf den B550 gewartet haben und dann einen Zen2 in Erwartung der Zen3 Sätze ergattert haben, wird die Ausnahme sein. Insofern beschränkt sich die Upgradbereitsschaft vermutlich auf Early Adopter der x570 Chips und das sind dann fast ausnahmslos Enthusiasten, die bereits einen 3900X oder 3950X im Systen sitzen haben.

Ich denke, dass ein Großteil der 5600/5800 neue Systeme sind.
 
Zuletzt bearbeitet:
300 Euro Aufpreis für 6% mehr Leistung find ich zu viel. Das große Plus ist der Stromverbrauch.

Dass die 6800 XT für 6% weniger Leistung genauso viel Strom schluckt, ist ein dickerk Minuspunkt.

Aber auch die beiden nvidia-Flagschiffe kann man nicht uneingeschränkt empfehlen: bei der RTX 3090 ist der Preis viel zu hoch, bei der RTX 3080 ist 10 GB Speicher zu wenig.

Von da her bin ich genauso schlau wie vorher: welche der 3 Grafikkarten nehmen (RTX 3090 fällt wegen dem Preis sowieso durch)
 
Streitet doch nicht Leute, die Spitzenmodelle kosten immer deutlich mehr obwohl die kaum Mehrleistung bringen bzw sich die Mehrleistung in Grenzen hält. Gehen wir mal von der MSRP aus, wäre bei Nvidia die starke 3080 mit 699€ vs die etwas schnellere und mit deutlich mehr VRAM bestückte 3090 für 1499€, dies sind nicht nur 350€ Aufpreis wie bei AMD (6800XT vs 6900XT mit 649€ vs 999€) sondern satte 800€ Aufpreis, also die kostet mehr als das Doppelte der ihr im Nacken sitzenden 3080! Klar die 6900XT ist auch überteuert für das bissl Mehrleistung ggü der starken 6800XT.

Meiner Meinung nach schlägt Nvidia aber deutlich mehr über die Stränge als AMD, vor allem gibts genug Leute die teilweise up to 2000€ für ein Custommodell der 3090 zahlen (nicht gegen die Leute persönlich, viel Spaß mit euren geilen Karten). Wie dem auch sei, besser ist es eine Stufe tiefer einzukaufen, es sei denn ihr braucht als Nvidia User jetzt unbedingt 24GB VRAM. Ja die 10GB der 3080 kommen einem mickrig vor ggü den mächtigen 24GB der 3090 oder 16GB der AMD Karten. Muss aber anmerken mit meiner 1080Ti und 11GB hatte ich nie VRAM Probleme, klar kann man sich die Probleme erzwingen mit unsinnigen Settings, ganz ehrlich mittlerweile bin ich weich gekocht und würde mich sogar mit den 10GB anfreunden wenn ich die FE für 699€ bekommen würde.
 
Was sollte daran "krass" sein?

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.

Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.
 
[...] Verstehe ich nicht?
Wieso sollte jemand von einem 3800 auf einen 5900 upgraden? [...]
Es geht darum, dass mit der Zen2-Einführung sich viele User überlegt haben werden, ob sie mit 12 Kernen überhaupt sinnvoll was hätten anfangen können, sprich ob das P/L-Verhältnis für sie persönlich überhaupt gegeben war. Sieht man sich an wie vergleichsweise wenige 3900X verkauft wurden und wie viele dagegen zu selbst noch 2600er und 3600(X)ern griffen, ist das offensichtlich.
Dagegen jetzt, rund anderhalb Jahre später hat man eine entsprechende Basis und tendenziell werden sich nun eher mehr Kunden anstatt für ein Sidegrade für ein echtes Upgrade hin zu mehr Kernen entscheiden (zumal das offensichtlich auch das letzte Upgrade auf AM4 sein wird, sieht man mal von einem möglichen Refresh ab). Das Geld rauszuwerfen für ein paar Prozentpunkte Mehrleistung ausgehend von bspw. einem 3800X (oder selbst 3700X) auf einen 5800X ist es i. d. R. nicht wert (ja ich weiß, es gibt auch Leute, die auch für ein paar nichtige Prozetpunkte Geld ausgeben; der Markt in seiner Gesamtheit verhält sich da jedoch rationaler).

Selbstredend wird es auch Neukunden geben, deren Zahl/Anteil lässt sich aktuell jedoch nicht wirklich bestimmen, hingegen für Upgrader hat es AMD (nach Protesten ;-)) relativ einfach gemacht und auch hier im Forum zeigten sich viele Zen2-Besitzer (gemäß Signatur) die dennoch upgradeten oder noch wollen. Jedenfalls bspw. Steam zeigt keine sprunghafte Entwickung bei der CPU-Verteilung auf. Beispielsweise der Anteilzugewinn von Jul auf Aug war gar deutlich größer als der von Okt auf Nov, d. h. bisher alles vergleichweise unauffällig.

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.
Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.
Nö, das ist vollkommen langweilig und schon seit letztem Jahr so, dass Intel hier deutlich hinterher hink, also kalter Kaffee. Erwähnenswert wäre lediglich, dass Intel trotz dieser Entwicklung nicht irgendwann gegen Null läuft, sondern immer um die 4.000 - 5.000 CPUs pro Monat bei MF umsetzt. Für Intel selbst ist das aber eher ein kleinerer und irrelevanterer Markt. Die setzen in einem einzigen Quartal weiterhin mehr CPUs um, als AMD im ganzen Jahr.
Darüber hinaus habe ich selbst nichts von "Paperlaunch" geschrieben, und der Begriff ist im wörtlich zu nehmenden Sinne für alle Marktteilnehmer derzeit nicht anwendbar, da auch nVidia- und AMD-GPUs in relevanten Stückzahlen verkauft werden). Dennoch ist es in der aktuellen Situation nachvollziehbar, wenn einige Konsumenten/Forenuser (vereinfachend und teilw. auch verärgert) von "Paperlaunch" sprechen, denn die Verfügbarkeit ist schlecht.
Bei AMD ist das Thema m. eher ungefärbten M. n. gar kritischer zu sehen, weil es a) zwei Produktkategorien betrifft, CPUs und GPUs und weil b) zwei AMD-Officials (Azor und Herkelman) sich unmittelbar zuvor weit aus dem Fenster lehnten und gar eine gegenteilige Situation in Aussicht stellten und die Gelegenheit nutzten, um auf dem Konkurrenten rumzuhacken *), um dann aber nach dem Launch das genaue Gegenteil zu demonstrieren. In ihren Positionen wussten die sehr genau was auf den Markt zukommen würde. Das beste was sie hätten tun können, wäre in diesem Fall einfach die Klappe zu halten, wenn sie schon nicht hätten vorab eine Warnung aussprechen wollen, aber dann noch das genaue Gegenteil zu suggerieren. (Da muss ich immer wieder schmunzeln, wenn ich an die Fanboys denke, die über Nvidia's und Intel's Marketing herziehen.)

Und AMD wird zweifelsfrei auch noch mehr absetzen, denn der Bedarf ist hoch und die Marketing-Maschinerie läuft ja dieses Jahr fast durchgehend auf Hochturen um den Bedarf anzufeuern, das steht außer Frage, nur ging es hier nicht um den Bedarf, sondern um die Verfügbarkeit und die ist zurzeit grundlegend mau.
Einzig bei Zen3 könnte sich das nun langsam bessern (?), denn mit dem was MF zumindest (vorerst) listet, scheinen sie ja mal eine erste größere Charge erhalten zu haben, denn dort stehen immer noch die Zen3-Modelle im Shop ;-) (Wobei natürlich auch hier die aktuellen 379 € für einen 5600X nicht ganz zu den 299 € MSRP passen und bei den anderen Modellen sieht es nicht besser aus. **)

*) Ich weiß nicht ob es ein direktes englisches Äquivalent zu "Wer im Glashaus sitzt ..." gibt ;-) Vielleicht muss man aber nur ausreichend stumpf und abgezockt sein, um derartige Äußerungen zu tätigen, wenn man schon absehen kann, das die einem kurze Zeit später bereits um die Ohren fliegen werden.
Zudem ist die Community ja i. d. R. ausreichend "nachsichtig" bzw. das Langzeitgedächnis da eher etwas löchriger, wenn es um das eigene, heißgeliebte Brand geht.

**) Alternate dagegen hat den 5900X derzeit nicht, wohl aber den 5950X, wobei man das bei MF auch relativieren muss, da die zu dem 5900X auch nur angeben: "Lagernd > 5 Stk." :-D


[...] Meiner Meinung nach schlägt Nvidia aber deutlich mehr über die Stränge als AMD [...]
Das dürfte eher deinem Bauchgefühl zuzuschreiben sein oder aber du lässt dich zu sehr von dem hohen, absoluten Preis der RTX 3090er in die Irre führen. Aktuell tun sich da beide Brands nicht allzu viel und es ist schwer abzuschätzen wie viel da anteilig auf die Lieferketten und schlussendlich auf die Händler anzurechnen ist bzgl. der konkreten Preisgestaltung:
Alternate, das jeweils günstigste Modell ggü MSRP:
  • RX 6800 XT : 949 € vs. 649 € : +46 %
  • RTX 3080 : 849 € vs. 699 € : +21 %
  • RX 6800 : 759 € vs. 579 € : +31 %
  • RTX 3070 : 664 € vs. 499 € : +33 % (derzeit sogar verfügbar)
Mindfactory kann man hier derzeit nicht wirklich betrachten, da die aktuell, wie fast immer in den letzten Tagen, keine einzige RX 6000-Karte listen. Exemplarisch eine
  • RTX 3060 Ti : 549 € vs. 399 € : +38 %
Bewegt sich letzten Endes also alles in einem relativ vergleichbaren Rahmen bzgl. der Preisaufschläge.
 
Zuletzt bearbeitet:
Eine 3080 ist darüber hinaus definitiv auch nicht in der Lage in 4K die 60FPS in BF V zu halten.
Auf der Salomonen Map droppen die FPS bspw. in den niedrigen 20ér Bereich. Das ist unspielbar. Zudem hat die 3080 in diesem Szenario schon mit Speicherbeschränkungen zu kämpfen. Warum Geforce Experience dafür dann auch die Grafiksetting und Textursettings empfiehlt zu reduzieren.

BF V VRAM Problem? Das glaube ich kaum, BF belegt oft keine 8 GB. Ich kann es bei mir auch noch mal mit RT noch mal checken, auch, wenn ich kaum glaube, dass sich etwas verändert hat.

Edit: 9,2 GB sind das Maximum, sprich eine 3080 mit ihren 10 GB hat sicherlich kein VRAM Problem.

Ist also gehopst wie gesprungen, die Radeon´s schaffen es nicht, die Nvidia Karten aber auch nicht, laufen zudem ja auch noch in Speichertrouble.

Ein schönes Beispiel wie grandios Raytracing bei Nvidia für BF V umgesetzt ist könnt Ihr euch ja mal in meinem folgenden kurzen Videoclip von ner 3080 anschauen.
Da kommt kein DLSS zum Einsatz, was nebenbei wie allseits bekannt hier so schlecht umgesetzt ist, dass nicht mal Nvidia die Nutzung empfiehlt, aber das nur am Rande, was hier mit aktivem RT auf der Wasseroberfläche abläuft ist unter aller Sau.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ohne RT (rechtes Bild) sieht die Wasseroberfläche vernünftig aus. Links RT on.

Anhang anzeigen 1345330

Die Stelle gucke ich mir zum Vergleich mal als erstes an sobald meine Radeon da ist.

Was ist an diesem Bild denn bitte falsch? Das RT Bild ist sicherlich nicht falsch.
Rechts ist schlicht extrem unrealistisch.
BF hat das meiner Meinung nach oft besser umgesetzt diese übertriebenen perfekten Spiegelungen in Spielen wie Spiderman und Watch Dogs sind extrem unrealistisch.
 
Zuletzt bearbeitet:
Ich finde BF V sollte man nicht als Raytracing Benchmark heranziehen. Das wirkte wie nachträglich irgendwie mit dem Knüppel reinprogrammiert.
Gerade was Raytracing betrifft, sollte man da eher moderne Spiele nehmen.

Einiges.
Z.b. dass die Ryzen 5000 Verkaufszahlen weit über denen von Comet Lake S liegen, oder dass trotz der Paperlaunch Behauptung bislang tausende CPUs NUR von MF verkauft wurden.

Klar könnte AMD noch viel viel mehr absetzen, aber das kommt mit besserer Verfügbarkeit.

Vielleicht wird der Bedarf sogar noch größer wenn die Bios Versionen für die Kompatiblität mit älteren Mainboards rauskommen.
 
Nö, das ist vollkommen langweilig und schon seit letztem Jahr so, dass Intel hier deutlich hinterher hink, also kalter Kaffee. Erwähnenswert wäre lediglich, dass Intel trotz dieser Entwicklung nicht irgendwann gegen Null läuft, sondern immer um die 4.000 - 5.000 CPUs pro Monat bei MF umsetzt. Für Intel selbst ist das aber eher ein kleinerer und irrelevanterer Markt. Die setzen in einem einzigen Quartal weiterhin mehr CPUs um, als AMD im ganzen Jahr.
Klar, durch die ganzen OEMs und User, die keine Ahnung haben geht einiges an Intel CPUs raus.
Dennoch dürfte Intel der Trend nicht wirklich gefallen. Und dass Ryzen 5000 die Nachfrage an Comet Lake S quasi am Launchtag überholt ist jetzt auch keine Auszeichnung für Intel.


Bei AMD ist das Thema m. eher ungefärbten M. n. garkritischer zu sehen, weil es a) zwei Produktkategorien betrifft, CPUs und GPUs
Für AMD kritischer ja weil eben 2 Produktlinien betroffen sind. Aber Ryzen 5000 ist wesentlich besser gelauncht als so ziemlich alles andere in 2020 - wobei auch das noch deutlich verbesserungswürdig war.

und weil b) zwei AMD-Officials (Azor und Herkelman) sich unmittelbar zuvor weit aus dem Fenster lehnten und gar eine gegenteilige Situation in Aussicht stellten und die Gelegenheit nutzten, um auf dem Konkurrenten rumzuhacken *), um dann aber nach dem Launch das genaue Gegenteil zu demonstirieren. In ihren Positionen wussten die sehr genau was auf den Markt zukommen würde.
Das stimmt, das war vollkommen unnötig, gerade weil mans mit RDNA2 im Grunde schlechter hinbekommen hat als Nvidia mit der 3080. Und das heißt halt was.
 
Für AMD kritischer ja weil eben 2 Produktlinien betroffen sind. Aber Ryzen 5000 ist wesentlich besser gelauncht als so ziemlich alles andere in 2020 - wobei auch das noch deutlich verbesserungswürdig war.

Wäre ich mir gar nicht mal so sicher. Ampere war offensichtlich doch in deutlich größeren Stückzahlen verfügbar ist als bekannt. Zumindest haben 2 Monate gereicht um über 200.000 (Schätzung anhand der aktiven Steam User und der 0,23 in der Steam Survey) 3080 an Steam User zu verkaufen, wie der Launch der 3070 und 3060 Ti abgelaufen ist muss sich erst noch zeigen, zumindest waren beide Modelle seit Launch immer verfügbar, wenn auch zu hohen Preisen.
Aber, ja Zen 3 war sicherlich kein Paperlaunch (vielleicht abgesehen vom 5950X).

Das stimmt, das war vollkommen unnötig, gerade weil mans mit RDNA2 im Grunde schlechter hinbekommen hat als Nvidia mit der 3080. Und das heißt halt was.

Das muss sich erst noch zeigen, werden wir ja sehen sobald die Karten in der Steam Survey auftauchen.


Man lässt sich immer leicht täuschen, dabei sind ein kleiner Teil der Retail Zahlen Deutschlands (nur Mindfactory) für den Weltmarkt absolut irrelevant.
 
Zurück