Radeon RX 6800/6900 (XT): AMD peilt gute Raytracing-Leistung in WQHD an

Ich gehe gar nicht erst davon aus das die RX6800 XT irgendwie Nvidia im Raytracing das Wasser reichen kann.
Und es ist mir auch vollkommen Wurst, da das Feature zur Zeit einfach noch völlig unnötig und kaum implementiert ist. Habe aktuell nicht 1 Spiel das RT unterstützt und die Vergleiche mit/ohne RT erzeugen auch nicht gerade Kaufzwang... dazu die Leistungseinbußen und DLSS (Matschfilter)...

Wichtiger sind mir ordentliche 4K60FPS und die liefert AMD, zu einem günstigeren Preis...
Sollte sich RT tatsächlich durchsetzen, was ja durchaus sein kann, passiert das erst in den nächsten Jahren... bis dahin steht schon die nächste GPU vor der Tür....
 
Ich gehe gar nicht erst davon aus das die RX6800 XT irgendwie Nvidia im Raytracing das Wasser reichen kann.
Und es ist mir auch vollkommen Wurst, da das Feature zur Zeit einfach noch völlig unnötig und kaum implementiert ist. Habe aktuell nicht 1 Spiel das RT unterstützt und die Vergleiche mit/ohne RT erzeugen auch nicht gerade Kaufzwang... dazu die Leistungseinbußen und DLSS (Matschfilter)...

Wichtiger sind mir ordentliche 4K60FPS und die liefert AMD, zu einem günstigeren Preis...
Sollte sich RT tatsächlich durchsetzen, was ja durchaus sein kann, passiert das erst in den nächsten Jahren... bis dahin steht schon die nächste GPU vor der Tür....

So schlecht is das DLSS gar nicht, auch wird das RT von AMD performancemäßig nicht Welten dahinter sein aber ohne den "Matschfilter" ist es generell relativ sinnfrei wie man weiß ... Die Performancekosten sind zu hoch. Es spielt aber auch ausserhalb von Demonstrationszwecken noch wenig Rolle. Ich habe zb einen RX 5700XT und eine 2070 zur Auswahl - bei Wolfenstein Youngblood erreiche ich in 1440p eine vergleichbare Leistung wenn die RX 5700 XT das Bild nativ ausgibt und die 2070 mit DLSS und Raytracing arbeitet. Ok die RX 5700 XT ist eine Spur schneller aber es bleibt vergleichbar. Die Moral von der Geschichte ist jetzt nur das man keinen wirklichen Unterschied wahr nimmt, ob jetzt Raytracing
an ist oder nicht... Also wenn man mir die GPUs hin und her baut ohne es mir zu sagen würde es mir vermutlich nicht auffallen :lol:
 
Ich gehe gar nicht erst davon aus das die RX6800 XT irgendwie Nvidia im Raytracing das Wasser reichen kann.
Und es ist mir auch vollkommen Wurst, da das Feature zur Zeit einfach noch völlig unnötig und kaum implementiert ist. Habe aktuell nicht 1 Spiel das RT unterstützt und die Vergleiche mit/ohne RT erzeugen auch nicht gerade Kaufzwang... dazu die Leistungseinbußen und DLSS (Matschfilter)...

Wichtiger sind mir ordentliche 4K60FPS und die liefert AMD, zu einem günstigeren Preis...
Sollte sich RT tatsächlich durchsetzen, was ja durchaus sein kann, passiert das erst in den nächsten Jahren... bis dahin steht schon die nächste GPU vor der Tür....
Mir geht es ähnlich. Ich erwarte hohe FPS (1440p) und saubere Frametimes ohne RT von meiner neuen Grafikkarte. UHD Leistung ist auch wichtig würde aber einen neuen Monitor bedeuten. Dann würde ich eher Upscaling nutzen bis sich ein neuer Monitor lohnt. MeinDazu eine gewisse Langlebigkeit der Bauteile und der Karte im allgemeinen damit ich beim Weiterverkauf oder einer langjährigen Nutzung den Kauf nicht bereue.
Aktuell sieht es stark nach einer Custom 6800XT von Sapphire oder PowerColor aus. Die 3080ti kommt mir einfach zu lange wenn man von den aktuellen Liefeproblemen bei Ampere ausgeht. Ich hätte gerne spätestens Anfang 2021 eine neue GPU.
Bei RT unterstützten Spielen sehe ich aktuell auch nur Cyberpunk und eventuell WoW Shadowlands auf meiner Liste. Langfristig wird das ganze ein tolles Feature und eine mittelmässige RT Leistung einer 6800XT reicht mir um mir einen Eindruck der Effekte zu bekommen. Dann entscheide ich ob mir RT bei der nächsten Karte eine Mehrinvestition wert ist. Das gleich gilt für DLSS und Super Resolution. Frei nach dem Motto: Evolution statt Revolution!
 
Du meinst genau so fiktiv, wie AMDs aktuelle Zen3-CPUs? ;-) Darüber hinaus, welche RDNA2-Kartenschwemme erwartest du von AMD? Die werden ebenso schnell vergriffen sein, denn der Bedarf ist hoch und AMD hat hier kein Interesse unnötig Marge zu opfern um einen "perfekten" Launch hinzulegen.
Naja allerdings sollte AMD ein gesundes Interesse daran haben ihre Produkte möglichst weit und an jeden Interessenten zu verbreiten damit dieses "AMD = Billigschrott Image" nach und nach verschwindet. Das geht nur durch die Überzeugung neuer Kunden mit guten Produkten die auch zu haben sind :-P

Wie oft liest man: "Gibts gerade nicht... pech kauf ich halt Produkt X... is eh besser"
 
Hi

Ja ja alle posten hier wo es die letzten Erscheinungsberichte über die neuen AMD Grafikkarten gab die sind bestimmt besser als meine 3080er aber es ist null bekannt über Raytracing und DLSS 2.0 sollen sie gar nicht haben. Also ist noch viel zu früh um sagen zu können ob sie wirklich besser sind und wenn man schon mit der 3080er und ihren 10 GB in 4K zocken kann dann nützten mir 16 GB einen Dreck vor allem wenn ich einen 32 Zoll WQHD Monitor habe. Und bei der alten i7 6700k CPU und der neuen 3080er hatte ich schon bei Ego Shootern wie Black Ops III von 2015 174 FPS. Mit der neuen und dem Ryzen 9 5900x habe ich über 220 ! :-)
 
Naja allerdings sollte AMD ein gesundes Interesse daran haben ihre Produkte möglichst weit und an jeden Interessenten zu verbreiten [...]
Das Interesse hat nVidia und jede andere Firma auch. Das Problem bei AMD ist schlicht ihre Größe sowie ihre beschränkten Ressourcen. Die werden derzeit und absehbar noch länger leicht überfordert, wenn die Nachfrage zu hoch wird, weil man nicht "unbeschränkte" Kapazitäten bei TSMC einkauft, was auch unsinnig wäre, denn schließlich will man wachsen und dazu muss man Geld verdienen und nicht etwa eine bilanztechnische Nullnummer fahren, weil man zu viel an Dienstleister bezahlen muss und schlussendlich kaum noch was mit den verkauften Produtken verdient. Das ist mit fingerspitzengefühl auszutarieren.

Und ich dachte schon, Taktraten wären ein architektonisches Merkmal ^^
Primär ist der Takt ein fertigungstechnisches Merkmal, aber man kann die Taktfähigkeit auch durch die Architektur beeinflussen, bspw. durch die Länge der Befehlspipeline, etc.
Der Punkt auf den ich aber hinaus wollte ist, dass AMD hier offensichtlich bzgl. der Verarbeitungseffizienz noch hinten ansteht, denn anscheinend benötigt RDNA2 den sehr hohen Takt um mit Ampere mithalten zu können. *) Die Vorabbenchmarks zur 6900XT gegen die 3090 nutzten nicht umsonst noch zusätzlich gar den Rage-Mode (maximales OC) sowie SAM um geringfügig bessere Fps zeigen zu können. Würde man beide Designs auf bspw. 1,8 GHz fixieren, dürfte wohl nVidia besser abschneiden. Das ändert nichts an den aktuell (bzw. bald) absolut gelieferten Leistungswerten, zeigt aber, dass AMD immer noch nicht ganz auf nVidia's Niveau angekommen ist.

Und freiwillig hat AMD den Takt ebensowenig so hoch geprügelt, denn die Chips verbrauchen nur wenig oder gar genau so viel wie Ampere im 8N. Der wesentliche Unterschied der Karten ist der Speicher, der bei nVidia beträchtlich aufs Power-Budget schlägt.
Der Sachverhalt scheint sich also anscheinend, wie bei RDNA, erneut zu wiederholen: Unter Zuhilfenahme des moderneren/besseren Fertigungsprozesses kommt AMD nur auf Augenhöre ran.

*) Es ist ja nicht so, als wenn man alternativ einen sehr hohen Takt implementiert hätte und dafür bei den CUs gespart hätte, da die damit deutlich leistungsfähiger werden und somit auch in Unterzahl mit Ampere mithalten können. Offensichtlich sind die CUs bei gegebenem Takt nicht leistungsfähig genug um mit nVidia's überarbeiteten SMs mithalten zu können, sodass sie den höheren Takt brauchen und damit auch weiterhin in vergleichbarer Zahl Ampere gegenübergestellt werden müssen.
 
Zuletzt bearbeitet:
Richtig, Taktpotential ist immer eine Kombination aus Architektur und Prozess. Und ja, AMD hat einen Fertigungsvorteil. Aber genau genommen ist der Satz nicht ganz richtig, denn mit RDNA1 war man Core- und Taktnormiert gleichauf mit Turing.

Ich seh das Business eh gelassener. Für mich sind GA102 und N21 roundabout auf identischem Performance Level. Je nach Software vllt. mal der eine oder andere schneller.
 
Richtig, Taktpotential ist immer eine Kombination aus Architektur und Prozess. Und ja, AMD hat einen Fertigungsvorteil. Aber genau genommen ist der Satz nicht ganz richtig, denn mit RDNA1 war man Core- und Taktnormiert gleichauf mit Turing.

Nur wenn man einen Parameter bewusst außer Acht lässt; hier dann den Verbrauch. Die GPUs der 5700XT und der 2070 Super sind in nahezu jeder Hinsicht vergleichbar: Ähnliche Transistorzahl, beide mit 40 SMs/CUs, gleiches SI, beide mit vergleichbarem Maiximaltakt und in etwa vergleichbarer Leistung (mit nur geringem Vorteil für Turing). Was jedoch ganz und gar nicht an dem Bild stimmt, ist, dass der Navi 10-Chip im deutlich moderneren N7P den gleichen Verbrauch aufweist wie Turing im 12FFN. Das erklärt auch warum AMD leichthin eine beträchtliche Perf/Watt-Steigerung vorausankündigen konnte, schlicht weil Navi 10/RDNA hier viel Potenzial auf der Straße ließ (und weil RDNA2 zu dem Zeitpunkt schon lange fertig war und vermutlich weil RDNA nur ein Light-RDNA2 war (und nicht etwa der Vorläufer von RDNA2), das man aus vertragsrechlichen Gründen zurechtstutzen musste. RDNA2-Silizium gibt es schon seit spätestens Ende 2018, eine GPU hätte man leicht und schnell veröffentlichen können anstelle von Navi 10, wenn man denn gedurft hätte).

Ich seh das Business eh gelassener. Für mich sind GA102 und N21 roundabout auf identischem Performance Level. Je nach Software vllt. mal der eine oder andere schneller.

Das sowiso. Wenn AMD endlich mal veröffentlicht hat und auch hier eine gewisse Verfügbarkeit gegeben ist, werden ich da mal einen nüchternen, abwägenden Blick draufwerfen, hat aber keine Dringlichkeit ... da gibt es Wichtigeres. ;-)
 
´*) Denn offensichtlich braucht die 6900 XT den extrem hohen Takt um mit einer 3090 mithalten zu können, d. h. architektonisch scheinen sie immer noch nicht auf einem zu nVidia vergleichbaren Niveau angekommen zu sein.

Ähm, die RX 6900 XT hat nur halb so viel Shader (5120), wie die RTX 3090 (10496) und ist trotzdem schneller!
Das lässt vermuten, dass AMD bei der nächsten GPU Version heftig nachlegen kann!
Auch scheint AMD bei der Raytracing-Leistung mit NVIDIA mithalten zu können, erst recht, wenn die DLSS Alternative Super-Resolution verfügbar ist.
 
Die Shaderverdopplung bringt in Spielen bloss nix.
Davon ab ist es doch egal wie die Leistung erreicht wird, hauptsache sie ist da.
 
Saugst du dir so einen Blödsinn selber aus den Fingern oder hast du hier einen direkten Draht zu AMDs Marketingabteilung?
Denkst du wirklich, dass jemand dir vernünftig antwortet nachdem du so in eine Diskussion einsteigst? Hast du irgendwann mal so etwas wie Erziehung genossen?

Du selbst erwähnst doch schon 2016! Im Januar hatte AMD bekanntgegeben dass sie mit ZEN Ende des Jahres durchstarten wollten, die Markt aber erst im nächsten Jahr wirklich bedient wird. Erst danach werde man sich wieder vermehrt auf Grafikkarten konzentrieren. So lautete die offizielle Aussage.
Als nächsten Schritt, hat AMD zur Rebellion aufgerufen. Ganz klar die Ansage ihnen treu zu bleiben auch wenn man nicht im High End mitmischt.
Danach gings dann um Vega und AMD erörterte dass man versuchte eine Karte zu bauen die sowohl für Spieler geeignet sei als auch für Creator/Prosumer.
Im Verlauf wurden dann Pläne der Entwicklung über den Haufen geworfen, beispielsweise die primitive shader und Kudori ging.
Dann wurde RDNA Richtung Markt geführt und klargestellt dass noch Reste von GCN drin seien was für uns Spieler hieß, dass noch Altlasten mitgeschleppt wurden und keine poleposition oder 180 Grad Wendungen zu erwarten waren.
Erst RDNA2 ist die Generation wo AMD klar suggeriert hat dass man wieder ganz nach oben will.

Was die User hier daraus jedes Mal gemacht haben ist deren Schuld, nicht aber AMDs. Hätte AMD es anders kommuniziert hätte ich nicht jedes Mal gewusst was mich erwartet. Schließlich bin ich auch nur ein User wie alle anderen und weiß nur was ich auf Seiten wie dieser hier zu lesen bekomme. Ich hab ja eine Vega Frontier Edition gekauft und auch die Radeon VII und war mit beiden zufrieden. Eben weil ich keine höheren Erwartungen hatte als die welche AMD klar kommuniziert hat. Die Primitive Shader sind da ein tolles Beispiel. Es hieß, dass man an so etwas arbeitet und es war offenkundig, dass sie zum Lauch nicht nutzbar waren. Wer sich dann eine Karte kauft, in der Hoffnung da könnte später noch was kommen... Zum Marktstart lagen die Karten klar auf dem Tisch und man kauft was da ist und nicht was man sich erhofft, dass es noch erfunden, ans laufen gebracht und später implementiert wird.

Bei Super Resolution wird es ganz genau so sein! Zum Start nicht da, also gehört es auch nicht in die Betrachtung, Punkt. Sich einfach zu erhoffen dass da noch was großes kommt ist grundsätzlich okay, aber wenn es nicht so ist, hat der Käufer die Alleinschuld und nicht AMD. Dier sagen ja ganz klar, dass es noch nicht so weit ist. Schau dir aber die Threads dazu an. Hunderte posts die so ein feature jetzt schon herbei diskutieren, aber nur einzelne die es als nicht vorhanden deklarieren. Die User schaffen künstlich diese übertriebenen Erwartungen, nicht AMD.
 
Zuletzt bearbeitet:
Denkst du wirklich, dass jemand dir vernünftig antwortet nachdem du so in eine Diskussion einsteigst? Hast du irgendwann mal so etwas wie Erziehung genossen?
Du selbst erwähnst doch schon 2016! [...]
Eigentlicht war meine Frage rein rethorisch gemeint, aber da du dir einige Mühe gemacht hast, will ich dir auch antworten.
Der von dir zitierte Absatz ist extrem verzerrend und rotstichig und so etwas ungefiltert zu posten, verbietet bspw. mir meine gute Erziehung. Um es zu konkretisieren bzgl. dieses Zitates:

- Es ist unsinnig zu behaupten, dass sich AMD-Fans von den vorausgegangenen GPU-Generatione keine echte Konkurrenz zu nVidia versprochen hätten, so bspw. von Vega. Und die, die es tatsächlich taten dann über einen Kamm geschert leichtfertig und pauschalisierend als "Schwachköpfe" abzutun ... naja.
- Eine entsprechende, offizielle Roadmap seitens AMD gab es nicht. Die Entwicklungen der RTG liefen parallel immer weiter. Dass man jedoch viel Energie in die CPU-Entwicklung stecken musste, war unvermeidlich, da man sich mit Bulldozer ordentlich verplant hatte und das Design bereits vom ersten Tag an kaum konkurrenzfähig war und mit der Zeit zunehmen an Boden verlor.
- Von einer Marktdurchdringung mit Zen zu sprechen ist bei dem noch verhältnismäßig kleinen Anteil problematisch (selbst heute, in 2017/18 aber im Besonderen). Immerhin hast du dir eine Quatifizierung erspart, sodass du dich da nicht festnageln kann. ;-)
- RDNA2 ist schon seit 2016/17 in der Entwicklung und davon wussten die meisten lange Zeit nichts, d. h. denen hätte klar sein sollen, dass die konkret von AMD veröffentlichten Produkte alles nur "Platzhalter" sein würden und man musste sich Vermutungen hingeben, dass da noch etwas im Äther herumschwirren würde? Klar im Sinne von eindeutig und offensichtlich für den gemeinen Konsumenten und Fan war da überhaupt nichts. Für Konsumenten spielte RDNA2 bis 2019 überhaupt keine Rolle und entsprechend knüpften die in den Jahren zuvor natürlich ihre Erwartungen an die Produkte, die faktisch auch veröffentlicht wurden (auch wenn es vielfach nur Zweitverwertungen waren, aber so offen vermarktet AMD die Produkte ja nicht).
- Und das "zu gut um wahr zu sein" ist maßlose übertreibung *) a la Chatstar und Seahawk. AMD hat endlich mal das abgeliefert, was sich "alle" (natürlich mit Ausnahme hartgesottener nVidia-Fans) schon seit langem von ihnen erhofften, mehr jedoch auch nicht, denn mehr als mit nVidia gleichzuziehen, gelang ihnen ihren eigenen vorläufigen Zahlen nach nicht, was dann aber zur Abwechslung mal tatsächlich nicht verwunderlich ist, denn wie du schon zu recht sagtest, brauchen solche Entwicklungen Zeit, was so mancher Konsument jedoch nicht versteht (oder in seiner Eigenschaft als hartgesottener Fan nicht verstehen will).

Und btw., das Thema Erwartungshaltung war dieses Jahr bzgl. AMD nichts anderes, nur dass man sich hier mehr Hoffnung machen durfte, was jedoch teilweise wieder zu den schrängen Stilblüten führte, dass es hier wieder Spezis gab, die es vollkommen übertrieben und dann noch einmal nicht nur ein "+1", sondern gleich ein "+4" meinten oben draufzusetzen. Aber um das vorweg zu nehmen; solche Extrembeispiele filtere ich auch gleich aus und die habe ich mit meiner obigen Kritik nicht inkludiert. Bereits der gemeine (halbwegs bodenständige nicht unter Halluzinogen stehende) AMD-Fan hat sich selbstredend auch in vergangenen Jahren Hoffnungen gemacht. Davon zeugt die gesamte Fachpresse aus der Zeit sowie die Foren, dieses herbegeredete "Vega-Desaster" (weil es einigen nicht gut genug war) und dieses naive Hass/Feinbild bzgl. der Person R.Koduri.

*) Bzw. das ist ein nachträgliches Reduzieren der Erwartungshaltung um die Produkte noch viel besser dastehen zu lassen. Es mag durchaus sein dass Du im Speziellen ein derart nüchtern, rationaler Mensch bist, sodass Du dir vorab keine allzu großen Hoffnungen zugestehst und es erst mal eher kritisch oder gar pessimistisch betrachtest um dann nachher (hoffentlich) positiv überrascht zu werden. Ein Großteil der Konsumenten verhält sich da jedoch anders, wenn man sich die Reflektionen in der Presse ansieht sowie die direkten Aussagen in diversen Foren.
Ich würde gar eher behaupten AMD ist nun genau da gelandet, was sich die AMD-Fans, nVidia-Hasser und auch neutralen Marktbeobachter von ihnen erhofft haben. Und die von AMD erbrachte Leistung wird nicht dadurch größer, wenn man sich nun einzureden versucht, dass man mit RDNA2 ja eigentlich bestenfalls einen RTX 2080-Konkurrenten erhofft hat, denn mit dem Erscheinen von Ampere hat die Vorgeneration ausgedient und ist bestenfalls noch für Schnäppchenjäger interessant (bzw. Spieler mit deutlich geringeren Ansprüchen).
Hätte AMDs Topmodell nicht einmal mit der RTX 3080 konkurrieren können, bzw. wäre von dieser souverän geschlagen worden, hättest du hier so einige enttäusche Kommentare im Forum lesen können ... aber, wie auch immer in solchen Fällen und da das Vermeiden einer kognitiven Dissonanz zur menschlichen Natur gehört, hättest du natürlich auch von einer Vielzahl derer lesen können, die dann plötzlich umschwenkten und geschrieben hätten, dass man ja eigentlich gar nicht mehr Performance erhofft hatte und dass das nun abgelieferte doch eigentlich gar nicht so schlecht sei. (Die Fabel von Äsop ist nicht umsonst so alt ;-))

Zu deiner aktuellen Antwort ... mal in Stichworten, weil obiges schon viel zu lang wurde:

- AMD ist seit 2016/17 an den Konsolen-SoCs und RDNA2 dran. Lauffähiges Silizium wird man seit dem 2HJ18 haben, die IP durfte man jedoch aus vertragstechnischen Gründen nicht verwenden und vertröstete entsprechend die Community mit weichgespülten Marketingsprüchen seit dem Turing-Launch zum Thema Raytracing, obwohl man schon seit langer Zeit wusste, dass es keine Raytracing-fähige Hardware von AMD bis Ende 2020 geben würde.
- Vega 10 hatte mit Problemen zu kämpfen, da das Management Koduri Personal und Arbeitsstunden gestrichen hat. Ein beträchtlicher Teil der RTG-Ingenieuere wurde auf das SoC-Projekt übertragen und so etwas fordert immer seinen Tribut.
- Deinen erwähnten "Rebellionsaufruf" meinst du hoffentlich nicht ernst. Einerseits gab AMD etwas derartiges nicht einmal zwischen den Zeilen von sich, andererseits verhält sich die beite Konsumentenmasse (und dazu gehören in diesem Kontext selbst noch "normale" Fans) nicht derart. Es mag durchaus ein paar Hartgesottene geben, denen niemals Hersteller XY ins Haus käme, jedoch der Großteil kauft das, was für ihn/sie gerade gut und zweckdienlich ist und wenn Hersteller A nichts anzubieten hat, werden diese natürlicherweise bei B, C, oder D schauen, auch wenn die möglicherweise ein Fan von A sind.
- Die "RDNA/GCN-Restetheorie" etc. ist möglicherweise auch nicht mehr als das. Es ist nicht einmal gesichert, dass RDNA alias Navi 10 überhaupt ein Vorentwicklungsschritt von RDNA2 war, denn dass AMD zu der Zeit, wo es ihnen finanziell und ressourcentechnisch immer noch schlecht ging, plötzlich quasi parallel drei GPU-Architekturen entwickeln konnte, erscheint eher unwahrscheinlich.
Wahrscheinlicher erscheint zumindest mir persönlich, dass es ausschließlich das RDNA2-Projekt gab, das ab 2016/17 entwickelt wurde. Und da man die IP nicht frühzeitig verwenden durfte, spaltete man davon ein Light-RDNA ab, dass man soweit runterstrippte, dass es mit Sony/Microsoft keine rechtlichen Probleme geben würde. Sieht man sich die Zeitlinie an, dann hatte AMD quasi gleichzeitig lauffähiges Silizium in Form von RDNA2 und dem vermeintlichen RDNA. Dass man nun dennoch die deutlich schwächere Architektur in 2019 veröffentlichte, lag schlicht daran, weil man keinen Zugriff auf RDNA2 hatte. Nichts anderes war auch die Kombination von Zen2 mit einem gepimpten Vega, wobei man da zweifelsfrei noch mal ordentlich Arbeit reinstecken musste um das alte Vega auf dieses Niveau zu heben. Hätte man gekonnt/gedurft, hätte man sich die Arbeit wohl eher gespart und gleich RDNA(2) genommen und selbst wenn es dann noch Anpassungsbedarf gegeben hätte, größer als der des umfangreichen Vega-Umbaus wäre der wohl auch nicht geworden, zumal RDNA(2) grundsätzlich bereits für ein SoC ausgelegt war.
- "Suggeriert" hat AMD schon immer viel (wie jede andere Firma übrignes auch) und zwar konkret deutlich mehr, als sie im Klartext gesagt haben. ;-) Auszugsweise ein Beispiel von der CES 2019 von L.Su:
"Hopefully by now you realize that Radeon VII is the most powerful gaming GPU we have ever build and really the most powerful consumer GPU available for content creation. It's really the best of both worlds."
Und jetzt willst du mir hoffentlich nicht erklären, dass diese Sätze dazu gedacht waren den heißen Gemütern eine ordentlich kalte Dusche zu verpassen. Marketingtechnisch gezielt und bewusst wurde hier ein "the most powerful gaming GPU" kommuniziert, das im Wesentlichen hängen bleiben sollte. Das "we have ever build" musste nur angehängt werden, um eine kategorische Falschaussage zu vermeiden. Und selbst mit viel Zuneiugung bleibt dieses jedoch reines Marketinggewäsch, das hohe Erwartungen schüren soll(te), mehr nicht und genaugenommen gar arg schief war, wenn man bedenkt, dass die RTX 2080 und auch Ti schon zu der Zeit lange im Markt war, abgesehen davon, dass das Design keine Gaming-GPU war sondern nur eine überteuerte Zweitverwertung aus der Instinct-Fertigung, die sowohl bzgl. der GPU als auch des PCBs nahezu unverändert übernommen wurde (und daher AMD auch schon wenige Monate später wieder zwang, die Karte vom Markt zu nehmen, als der Preis zu sehr gesunken war).
Bitte nicht falsch verstehen: Die Radeon war nicht schlecht und bzgl. einiger spezieller Anwendungsafälle gar sogar extrem gut. Hier geht es lediglich um die Vermarktung und da unterscheidet sich AMD keinen Deut von den anderen Firmen, die immer also so böse, doppelzüngig oder sonst was hingestellt werden.
Und selbstredend ist AMD aus der Verantwortung ("ist deren [User] Schuld") nicht komplett rauszunehmen. Naütrlich schürt AMD hier aktiv eine gewisse Erwartungshaltung bzw. vermeidet es bspw. im Umkehrschluss zu sagen, dass von ihnen in nächsterZeit nichts kommen wird, weil sich das ansonsten unmittelbar in den Bilanzen niederschlagen würde. "Absolute Offenheit/Ehrlichkeit" und Marketing schließen sich gegenseitig aus und AMD betreibt ihren Vertrieb wie jede andere Firma auch. Da sind mir bisher keine relevanten Außreißer aufgefallen, weder positiv noch negativ, die AMD nennenswert von deren Konkurrenz unterscheiden würden.
- "Ich hab ja eine Vega Frontier Edition gekauft und auch die Radeon VII und war mit beiden zufrieden." Warum auch nicht, beides sicherlich keine schlechten Karten (und die 16 GiB der VII waren zu der Zeit ein Novum, auch wenn man die eher für Content Creation benötigte und damit weniger im Gaming anfangen konnte) und mit deiner Haltung, soweit ich das bei dir rauslese, wirst du auch sehr genau gewusst haben was du gekauft hast und daher wohl kaum enttäuscht worden sein.
- "Bei Super Resolution wird es ganz genau so sein! Zum Start nicht da, also gehört es auch nicht in die Betrachtung, Punkt" was wieder deine relativ nüchtern, rationale Haltung wiederspiegelt, nur sehr viele ticken nicht so und ebendrum erwähnt AMDs Marketing dieses Feature auch genau jetzt zum Launch der neuen Karten und nicht etwa erst irgendwann nächstes Jahr, wenn ein konkreter Releasetermin bekannt ist. Hier spielt man sehr bewusst auf der psychologischen Klaviatur. Natürlich sollte man seine Entscheidungsfindung nicht davon abhängig machen, aber AMD erwähnt es explizit, damit es dennoch im Hintergrund seine Wirkung entfaltet und Interessenten dahingehend beeinflusst, dass diese nicht das DLSS der Konkurrenz als alleinigen Enabler für 4K-Gaming mit hohen Fps-Zahlen verstehen. Du kannst durchaus auf deiner Sichtweise bestehen und dir persönlich wird die ggf. auch gute Dienste leisten, nur aus einer Marketingsicht heraus ist das praxisfern und dort werden selbstredend solche Winkelzüge angewendet, weil es sehrwohl viele Konsumenten beeinflusst.

Hierzu eine abschließende Anmerkung von mir: Ich bin mir sehr sicher, dass AMD mit einem DLSS-Äquivalent kommen wird, schlicht weil sie es müssen, weil auch in den nächsten Jahren absehbar die Rechenleistung der GPUs "immer zu knapp bemessen sein wird", Gamer aber dennoch immer mehr wollen, also 4K, dann 4K mit hohen Fps und dann auch noch mit hochqualitätiven, vollumfänglichen Raytracing-Effekten, dann irgendwann das gleiche Spielchen in 8K, usw.
Die Frage ist nur wie lange sie dafür brauchen werden und in welcher Qualität der erste Wurf erscheinen wird. Bezüglich der Qualität gibt es jedoch absehbar schon ein gesetztes unteres Limit, denn nennenswert unter DLSS 2 braucht man sich am Markt nicht blicken zu lassen. AMD hat zumindest das Glück das Microsoft und Sony im gleichen Boot sitzen, d. h. insbesondere mit ersterten wird eine Kooperation naheliegend sein, denn für eine Sicherstellung der Langlebigkeit der NextGen-Konsolen wird man auch hier entsprechende Technik benötigen und mit denen im Boot wird man auch absehbar (irgendwann) in 2021 etwas liefern können. Der Handlungsdruck ist hier klar gegeben, da DLSS das Hardwarelimit deutlich anzuheben hilft und dieser Druck ist umso höher, wenn man nVidia noch die Möglichkeit einer weiteren Verbesserung in Richtung DLSS 3 zugesteht. Ohne ein entsprechendes Gegenstück stünde AMD hier im 4K-Gaming bei hoher Qualität und hohen Fps selbst mit einer 6900XT auf verlorenem Posten ... und genau das ist auch der Grund, warum man jetzt schon herausgestrichen hat, dass man da an "was" arbeitet, auch wenn man bisher noch rein gar nichts Konkretes in Aussicht stellen konnte.
Für die 4k-Gamer bleibt nur zu hoffen, dass das nicht so eine Raytracing-ähnliche Aussage seitens AMD war, aber wie schon gesagt, vermute ich, dass AMD selbst da gar nicht mal so übermäßig viel zu beitragen muss, sondern sich möglicherweise gar an Microsofts Rockzipfel hängen kann, die so etwas über DirectML sicherlich in der Entwicklung schon länger zu implementieren versuchen. Einen ersten, rudimentären Wurf dazu präsentierte diese ja schon damals in 2018.

(Ok, das mit Kurz und in Stichworten hat dann doch nicht so geklappt.)
 
Zurück