RDNA 3 ist offiziell: AMD stellt Radeon RX 7900 XTX mit 24 GiB und 7900 XT mit 20 GiB vor

Bin mal gespannt, eigentlich lässt sich der von NV anvisierte Preis so kaum halten. Selbst die RT Leistung der 4080 dürfte nicht wirklich deutlich über einer 3090 liegen.
Wann hat Nvidia sich zuletzt dafür interessiert was die Konkurrenz so treibt? Wenn die Karte für den Preis auf den Markt kommt wird die den mit Sicherheit auch halten. Die Dominanz von Nvidia was Marktanteile angeht ist einfach erdrückend.
 
Wann hat Nvidia sich zuletzt dafür interessiert was die Konkurrenz so treibt? Wenn die Karte für den Preis auf den Markt kommt wird die den mit Sicherheit auch halten. Die Dominanz von Nvidia was Marktanteile angeht ist einfach erdrückend.
Hat sie so lange es kein Mining boom gibt.
2017 gab es einen Mining boom für gtx1000er und rx500er Karten. Die waren damals entsprechend auch zu teuer. Die gtx1070 kag bei teilweise 500€. 2017 gabs die dann für 280€
Die Miner verzerren den Markt. NV/AMD-Boardpartner müssen ihre Karten in grossen Massen verkaufen. Das ist keine Wollensfrage. Die haben grosse Kontingente bei TSMC etc. eingekauft und müssen die an den Mann bringen.
Wenn dann die Preise so hoch sind dass zu wenig Gamer die Teile in Unmengen kaufen und auch sonst niemand wie Miner Millionen dieser Karten kauft, aber die Lager überlaufen weil TSMC fertigt dann wird wie überall in der Marktwirtschaft an der Preisschraube nach unten gedreht.
Die Gelddruck-Jahre für NV/AMD sind vorbei.
Das haben auch schon die ganzen Aktionäre erkannt. Die Kurse von AMD+NV haben sich innerhalb 1 Jahres halbiert.
 
Die Ziellinie als 2. zu überqueren, und das auch so wollte, heißt nicht dass man "gewonnen" hat
Für deren Midrange Karte ist das doch komplett OK.
Nächstes Jahr gibts dann die High End Karte mit einem 600mm Die mit 24k Shadern bei 450W, dann sieht selbst eine mögliche 4090ti alt aus.
AMD kann dank den MCDs den GCD noch gut vergrößern und mit Shadern zupflastern während NV schon fast am Ende der maximalen Die Größe die TSMC fertigen kann angekommen ist was deren restliche Fläche für alle Chipteile stark reduziert.
 
Zuletzt bearbeitet:
Wann hat Nvidia sich zuletzt dafür interessiert was die Konkurrenz so treibt? Wenn die Karte für den Preis auf den Markt kommt wird die den mit Sicherheit auch halten. Die Dominanz von Nvidia was Marktanteile angeht ist einfach erdrückend.
Ich sehe das wie @sonny1606
Ein funktionierender Markt ist nicht vorhanden. Mal bei MF in den Mindstar geblickt?
So was gab es noch nie!!!

Wer sich nur ein wenig auskennt weiß das aktuell fast nicht über die Ladentheke läuft.
Abseits der Earlybirds ist der Markt vollkommen im Eimer. Die 4080 ist bei Enthusiasten völlig verschrien, ich sehe da kein erfolgreiches Produkt. Das hat NV sich auch selbst kaputt gemacht.

Wann bitte gab es mal eine Unlaunch...
 
Für deren Midrange Karte ist das doch komplett OK.
Nächstes Jahr gibts dann die High End Karte mit einem 600mm Die mit 24k Shadern bei 450W, dann sieht selbst eine mögliche 4090ti alt aus.
AMD kann dank den MCDs den GCD noch gut vergrößern und mit Shadern zupflastern während NV schon fast am Ende der maximalen Die Größe die TSMC fertigen kann angekommen ist was deren restliche Fläche für alle Chipteile stark reduziert.

Schöne Träume, gibt es dazu auch was handfestes?
 
@raPid-81
Klingt wie die logische Entwicklung.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
@raPid-81
Klingt wie die logische Entwicklung.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Also Wunschdenken. Alles klar. Wie der Wundertreiber wird die 2 GCD Karte bestimmt bald, gaaanz bald, angekündigt werden. So wie 3D Cache für alle Ryzen CPUs, oh wait...
 
Bin mal gespannt, eigentlich lässt sich der von NV anvisierte Preis so kaum halten. Selbst die RT Leistung der 4080 dürfte nicht wirklich deutlich über einer 3090 liegen.

In 10 Tagen ist ja Relase der Karte,bin mal gespannt was die Tests sagen.

Aktuell finde ich das RT Thema etwas übertrieben bzgl. der neuen AMD Karten.

Nehmen wir mal an die RX7900XTX kommt in non RT Games zwischen einer RTX4080 und RTX4090 raus, sollte niemand meckern.

Sollte die RX7900XTX bei RT Anwendungen auf RTX3090-RT3090ti Niveau arbeiten, wäre diese wohl grob 30% langsamer als eine RTX4080.
Wäre das wirklich ein so schlimmes Resultat für die verlangte UVP?

Natürlich kann es auch sein, dass die AMD Karte schwächer performt und die RTX4080 schneller als vermutet.

Mich würde es eher interessieren wie die Karten mit den zukünftigen Spiele Engines zurechtkommen. Die UE5 wird in Zukunft sicher ein fester Bestandteil komm der Titel werden. Spielt da Raytracing eigentlich noch eine so entscheidende Rolle?
 
Mich würde es eher interessieren wie die Karten mit den zukünftigen Spiele Engines zurechtkommen. Die UE5 wird in Zukunft sicher ein fester Bestandteil komm der Titel werden. Spielt da Raytracing eigentlich noch eine so entscheidende Rolle?
Jup, spielt eine entscheidende Rolle:

https://docs.unrealengine.com/5.0/en-US/lumen-technical-details-in-unreal-engine/

Lumen provides two methods of ray tracing the scene: Software Ray Tracing and Hardware Ray Tracing.

  • Software Ray Tracing uses Mesh Distance Fields to operate on the widest range of hardware and platforms but is limited in the types of geometry, materials, and workflows it can effectively use.
  • Hardware Ray Tracing supports a larger range of geometry types for high quality by tracing against triangles and to evaluate lighting at the ray hit instead of the lower quality Surface Cache. It requires supported video cards and systems to operate.
Software Ray Tracing is the only performant option in scenes with many overlapping instances, while Hardware Ray Tracing is the only way to achieve high quality mirror reflections on surfaces.

Limitations of Software Ray Tracing​

Software Ray Tracing has some limitations relating to how you should work with it in your projects and what types of geometry and materials it currently supports.

Hardware Ray Tracing​

Hardware Ray Tracing supports a larger range of geometry types than Software Ray Tracing, in particular it supports tracing against skinned meshes. Hardware Ray Tracing also scales up better to higher qualities — it intersects against the actual triangles and has the option to evaluate lighting at the ray hit instead of the lower quality Surface Cache.

Es wird zwar einen Software-RT Pfad geben, aber er wird weniger Features unterstützen. Über die Performance wissen wir nichts. In der Regel werden dedizierte Einheiten sowas aber immer schneller berechnen als emulierte.
 
Jup, spielt eine entscheidende Rolle:

https://docs.unrealengine.com/5.0/en-US/lumen-technical-details-in-unreal-engine/







Es wird zwar einen Software-RT Pfad geben, aber er wird weniger Features unterstützen. Über die Performance wissen wir nichts. In der Regel werden dedizierte Einheiten sowas aber immer schneller berechnen als emulierte.

Daumen hoch für die ausführlichen Informationen ??

Ich stelle mal die Frage anders
"Wird man RT (egal ob per Software oder per Hardware) Dank den theoretischen Möglichkeiten der UE5 vielleicht weniger stark erkennen?"

Vielleicht kommt mein Punkt auch nicht so recht rüber und wahrscheinlich bin ich da auch einfach zu unwissend. Ich fand bisher alle Demos der UE5 ziemlich beeindruckend was die Optik betroffen hat. Auch die Matrix Demo auf meiner Series X war optisch wirklich schön anzusehen. Gerade bei Konsolen kann man was RT angeht nur das minimalste Erwarten und dennoch sah es bisher alles nach Next Gen aus. Eine RX7900XTX oder auch kleiner (oder Nvidia) wird vielleicht auch ohne RT Feuerwerk extrem hübsche und realistische Welten darstellen können bei genügend FPS (je nach Anspruch).

Ich hoffe mein Punk kommt etwas rüber ^^
 
Daumen hoch für die ausführlichen Informationen ??

Ich stelle mal die Frage anders
"Wird man RT (egal ob per Software oder per Hardware) Dank den theoretischen Möglichkeiten der UE5 vielleicht weniger stark erkennen?"

Vielleicht kommt mein Punkt auch nicht so recht rüber und wahrscheinlich bin ich da auch einfach zu unwissend. Ich fand bisher alle Demos der UE5 ziemlich beeindruckend was die Optik betroffen hat. Auch die Matrix Demo auf meiner Series X war optisch wirklich schön anzusehen. Gerade bei Konsolen kann man was RT angeht nur das minimalste Erwarten und dennoch sah es bisher alles nach Next Gen aus. Eine RX7900XTX oder auch kleiner (oder Nvidia) wird vielleicht auch ohne RT Feuerwerk extrem hübsche und realistische Welten darstellen können bei genügend FPS (je nach Anspruch).

Ich hoffe mein Punk kommt etwas rüber ^^

Ganz bestimmt wird man auch mit weniger RT (weniger Strahlen, weniger Bounces) tolle Welten zusammen bauen können. Wie performant der Software-RT Pfad wird weiss aktuell nur jemand der bereits mit der UE5 beschäftigt ist. Auf jeden Fall wird man es erkennen können, einfach mal einlesen in die Unterschiede zwischen den beiden Möglichkeiten.

Grobe Zusammenfassung: Software-RT arbeitet mit einem Surface Cache, heißt die Strahlen treffen nicht direkt auf Polygone sondern auf "Zusammenfassungen" vorher festgelegter Bereiche. Auch werden einige Materialien nicht unterstützt (transparente Oberflächen zum Beispiel werden ignoriert). Heißt es wird alles etwas "gröber" berechnet, was für Schatten und Ausleuchtung nicht so cool ist. Bei Reflektionen dagegen könnte es sogar besser aussehen als gestochen scharfe Hardware-RT Berechnungen.

Aber darum geht es doch eigentlich nicht in der Diskussion um High-End Hardware, oder? "Alle Regler nach rechts" möchte man doch schon eine Zeit lang haben wenn man >1000€ für eine Grafikkarte ausgibt. Zumindest ging es mir so als ich 2020 für ~900€ die 3080 gekauft habe.
 
Ganz bestimmt wird man auch mit weniger RT (weniger Strahlen, weniger Bounces) tolle Welten zusammen bauen können. Wie performant der Software-RT Pfad wird weiss aktuell nur jemand der bereits mit der UE5 beschäftigt ist. Auf jeden Fall wird man es erkennen können, einfach mal einlesen in die Unterschiede zwischen den beiden Möglichkeiten.

Grobe Zusammenfassung: Software-RT arbeitet mit einem Surface Cache, heißt die Strahlen treffen nicht direkt auf Polygone sondern auf "Zusammenfassungen" vorher festgelegter Bereiche. Auch werden einige Materialien nicht unterstützt (transparente Oberflächen zum Beispiel werden ignoriert). Heißt es wird alles etwas "gröber" berechnet, was für Schatten und Ausleuchtung nicht so cool ist. Bei Reflektionen dagegen könnte es sogar besser aussehen als gestochen scharfe Hardware-RT Berechnungen.

Aber darum geht es doch eigentlich nicht in der Diskussion um High-End Hardware, oder? "Alle Regler nach rechts" möchte man doch schon eine Zeit lang haben wenn man >1000€ für eine Grafikkarte ausgibt. Zumindest ging es mir so als ich 2020 für ~900€ die 3080 gekauft habe.

Wieder was gelernt ☺️
Klingt bald so als ob eine Hybrid Lösung dieser zwei Berechnung Möglichkeiten sinnvoll sein könnte. Hoffentlich kommen bald UE5 Games raus mit entsprechenden Budget ^^

Zum Thema High End, natürlich möchte man maximale Einstellungen damit flüssig dargestellt bekommen. Auch wenn ich persönlich eher der Freund bin wie es bei Crysis 1 war. Next Next Gen Optik bei ruckeligen Optikorgasmen ? Gott war das geil damals mit meiner 8800 Ultra ^^

Die RTX4090 zeigt aktuell sehr deutlich wie schnell neue GPU's sein können, egal ob RT an ist oder nicht. Nur leider wird wohl kaum ein Gamer in das Vergnügen kommen bei 2000€ und mehr...
Daher finde ich die Preisklasse darunter (1000-1200€) sehr spannend. Das ist immer noch super viel Geld aber eben auch deutlich weniger wie bei der 4090.

P.S. Zum Thema alle Regler nach Rechts, mittlerweile fahre ich eher alle Regler auf Hoch statt max weil man kaum noch Unterschiede sieht und falls doch kann man punktuell auf max stellen.
Früher war das noch anders aber aktuell sehe ich persönlich meist keinen Unterschied außer bei den FPS und dem Stromverbrauch meiner 3090 (hart Untervoltet^^)

Hoffentlich kann das nächste Crysis 4 mich mal wieder so richtig optisch umhauen wie einst der erste Teil ❤️
 
Aktuell finde ich das RT Thema etwas übertrieben bzgl. der neuen AMD Karten.
Ich ebenso. Vor ein paar Wochen war die 3090/ti noch das einzige Modell mit dem man RT voll nutzen konnte, hieß es. Aber selbst mit einer 3080 könnte man es ordentlich nutzen, während es auf keiner ans sinnvoll war. Solche Aussagen konnte man in fast jedem Spieletest lesen und in absolut jeder Diskussion um RT.
Jetzt ist die 4090 voran marschiert und die 7090 wird etwa die RT Performance der 3090 haben und plötzlich kann man wieder nur mit der neuen spitze spielen und die Leute die gestern noch überzeugt von ihrer 3090 unter RT waren, erklären jetzt dass AMDs neues Topmodell damit nicht vernünftig nutzbar wäre.
Ich verstehe das echt nicht. Was soll so ein Verhalten? Wenn man es einfach nur in Relation zur Entwicklung und dem Schritt der 4090 setzen würde, okay. Gevau das wird aber nicht gemacht. Ist mir komplett unbegreifbar.

Gerade vor dem Hintergrund dass es noch absolut kein Spiel gibt dass damit wirklich schon echt aussähe. Da gibt's schon gute Annäherungen (die mit der 3090 funktioniert haben), aber kein einziges Spiel und keine techdemo schaffen es aktuell wirklich hochauflösende Flächen, samt korrekter Eigenschaften überall auf dem Bildschirm mit ausreichend strahlen zu beleuchten. In Exodus beispielsweise sieht man das gut. Die Beleuchtung wirkt gut, aber wehe man schaut sich eine Szene länger an und guckt gerade auf die Übergänge von Schatten zu Licht, wenn man sich nähert. Geht man um ein Objekt musste dieses durch die reflektion auf dem Spieler diffus und plötzlich beleuchtet werden, dafür reichen aber die Anzahl der strahlen und der Ablenkungen hat nicht. Aktuell ist es teilweise nett, aber insgesamt noch sehr sehr weit weg von nutzbar und besser.
 
Jetzt ist die 4090 voran marschiert und die 7090 wird etwa die RT Performance der 3090 haben und plötzlich kann man wieder nur mit der neuen spitze spielen und die Leute die gestern noch überzeugt von ihrer 3090 unter RT waren, erklären jetzt dass AMDs neues Topmodell damit nicht vernünftig nutzbar wäre.
Ich verstehe das echt nicht. Was soll so ein Verhalten?
Das ist gar nicht der Punkt.
Der Punkt ist dass man die RT Leistung der 3090 eben mit der 3090 bereits vor 2 Jahren kaufen konnte. Bei gleicher TDP!
Im Euro Preis tut sich im Vergleich zu der auch kaum was, was aber natürlich nicht ausschließlich AMDs Schuld ist.
 
Ich ebenso. Vor ein paar Wochen war die 3090/ti noch das einzige Modell mit dem man RT voll nutzen konnte, hieß es. Aber selbst mit einer 3080 könnte man es ordentlich nutzen, während es auf keiner ans sinnvoll war. Solche Aussagen konnte man in fast jedem Spieletest lesen und in absolut jeder Diskussion um RT.
Jetzt ist die 4090 voran marschiert und die 7090 wird etwa die RT Performance der 3090 haben und plötzlich kann man wieder nur mit der neuen spitze spielen und die Leute die gestern noch überzeugt von ihrer 3090 unter RT waren, erklären jetzt dass AMDs neues Topmodell damit nicht vernünftig nutzbar wäre.
Ich verstehe das echt nicht. Was soll so ein Verhalten? Wenn man es einfach nur in Relation zur Entwicklung und dem Schritt der 4090 setzen würde, okay. Gevau das wird aber nicht gemacht. Ist mir komplett unbegreifbar.

Hab ich so kaum von jemand gelesen. Die meisten enttäuscht das Hinterherhinken um eine komplette RT Gen statt einer Aufholjagd. Oder dass eine 6900XT noch beim Rastern mit der 3090 annähernd gleichzog, und jetzt konkurriert man absichtlich "nur" noch um den 2. Platz. Das klingt eben beides nach Rückschritt, nicht nach dem was RDNA2 angedeutet hat...
 
Hab ich so kaum von jemand gelesen. Die meisten enttäuscht das Hinterherhinken um eine komplette RT Gen statt einer Aufholjagd. Oder dass eine 6900XT noch beim Rastern mit der 3090 annähernd gleichzog, und jetzt konkurriert man absichtlich "nur" noch um den 2. Platz. Das klingt eben beides nach Rückschritt, nicht nach dem was RDNA2 angedeutet hat...

Wer ist "enttäuscht" von der vermeintlichen (ist ja noch gar nicht offiziell getestet) RT-Leistung der neuen AMD Karten?
Habe ich überhaupt nicht so wahrgenommen, ich lese eher heraus, dass RT für die ganz große Mehrheit einen recht kleinen Stellenwert hat: Nett, dass es RT gibt, aber mehr eben auch nicht. RT entwickelt sich von Gen zu Gen und fertig.
Bedeutend wichtiger ist dagegen schon, dass die RX 7900 keine 350W zieht, nicht >2.000€ kostet, oder den Käufer dem Risiko einer Steckerschmelze aussetzt.
 
Zuletzt bearbeitet:
Zurück