Nach dem aktuellen Stand mit nur einer 8800XT auf AMDs Seite.
Natürlich, das ist halt der Ist-Stand und dementsprechend kann nVidia das Thema relativ entspannt sehen ... auch wenn die den großen GB202 per se für Workstations und das Datacenter benötigen. Dessen Verwendung in einem weiteren Marktsegment für Consumer ist für nVidia nur von Vorteil.
Vor 4 Jahren hat aber die 6900XT Nvidia kalt erwischt, welche die 3090 in einigen Spielen übertraf.
Eine geheime 8900XT könnte die 5080 in der hier gezeigten Form schlagen und damit hätte Nvidia keine Krone.
Da hat nichts nVidia kalt erwischt. RDNA2 wurde dennoch kaum gekauft. Zudem kam da nicht mal was überraschend für nVidia, denn AMD hat RDNA2 ja aufgrund des Konsolendeals absichtlich zurückgehalten und was die Arch kann, konnte man schon lange zuvor ausloten, denn die Konsolen-Entwickler wurden schon ab dem 1HJ19 mit lauffähigen Prototypdesigns beliefert.
Was denkst du warum AMD nun die Reißleine zieht und sich dem öffentlichen Gesichtsverlust aussetzt? Das Thema der Probleme mit Navi41 hat man absichtlich monatelang totgeschwiegen. So etwas würde unter normalen Umständen eine Sales/Marketingabteilung keinesfalls auf sich sitzen lassen ... offensichtlich hatte man aber nun keine andere Wahl als ein entsprechendens Bla-Bla-Statement vorzubereiten, weil der RDNA4-Release immer näher rückt.
Und nein, da kommt nichts "
Geheimes" ... AMD hat nur noch die beiden kleinen RDNA4-Chips in der Pipeline, für alles Weitere muss man auf RDNA5 warten (
UDNA kommt ans. erst danach), mit viel Glück in etwa 14 Monaten, wahrscheinlicher jedoch eher in 20+ Monaten ... d. h. nVidia bedient hier nun konkurrenzlos das obere Marktsegment, zweifellos keine wünschenswerte Situation für Konsumenten. Gäbe es da noch was, wäre dieses magere Statement Jack Huynh auf der IFA sicherlich nicht über die Lippen gekommen.
Darüber hinaus ... du kannst davon ausgehen, dass das ursprüngliche kleine Topmodell in etwa das Niveau um die 7900XT angepeilt haben dürfte. Mit der zwangsweisen Roadmap-Anpassug wird man den Chip nun nachträglich takttechnisch etwas hochziehen, sodass der sich vielleicht zumindest in die Richtung einer 7900XTX bewegt, viel mehr wird da aber nicht zu ertwarten sein (
RT wird aber hoffentlich deutlich besser).
Der Vollständigkeit halber ... es gab auch Gerüchte eines Navi31-Refreshes, vielleicht nun mit einem neuen, bugfixed(?) MCD, jedoch waren die bisher nie sonderlich plausibel, weil dem Design dennoch nicht übermäßig mehr Leistung zu entlocken gewesen wäre und man im RT weiterhin weit hinterherhinken würde. Auch eine Idee a la V-Cache auf die MCDs (
gab es in 2022 vermutlich als Prototyp im Labor) ist nicht wirklich plausibel, weil es die Mehrleistung ebenso nur in begrenztem Rahmen steigern würde, dafür das Design aber deutlich teuerer machen würde, also genau das, was sich AMD so ganz und gar nicht bei ihrer Marktsituation leisten kann.
Alles in allem erscheint es recht unwahrscheinlich, dass AMD da in den nächsten 12 Monaten mit irgendwas überraschen bzw. etwas aus dem Hut zaubern kann.
Was meinst du warum es eine 4080 Super gibt? Damit Nvidia ein paar Punkte schneller ist als AMD mit der 7900XTX, weil die 4080 AMD nicht ganz schlägt.
Ja das ist ein echter Krieg der zwischen AMD und Nvidia stattfindet. Da steckt viel Ehre und Prinzipien dahinter...
Für das Schlagen von AMD hat nVidia die 4080 Super zweifellos nicht gebraucht. RDNA3 wurde kaum gekauft, insbesondere im HighEnd konnte AMD kaum was absetzen, d. h. nVidia hätte es einfach so belassen können wie es ist.
Der Refresh war schlicht der ganz normale Midlife-Cycle-Update um die Absatzzahlen etwas ankurbeln zu können, nicht mehr und nicht weniger. Zudem, und das dürfte für nVidia deutlich wichtiger gewesen sein, konnte man so einen "versteckten" Preisnachlass auf die hochpreisige 4080 geben, ohne bei einem Bestandsprodukt nachträglich den Preis mindern zu müssen, weil nVidia so etwas anscheinend recht ungerne zu machen scheint bzw. sich geradezu dagegen zu sträuben scheint.
Und nein ... das ist bestenfalls ein Scharmützel ... AMD kommt hier in keinem Marktsegment gegen nVidia an. Ist leider so und dementsprechend müssen die Konsumenten hier mit den Konsequenzen leben ... :-/
Und glaubst du echt das beide Firmen total gläsern sind? Von DLSS z.b. hört man im Vorfeld GAR NICHTS.
DLSS3/Frame Generation hat viele überrascht.
Und mit Sicherheit redet kein Nvidia Mitarbeiter über die Karten.
Bei GPUs gibt es halt ein paar mehr Mäuler als nur die Software/DLSS Abteilung von Nvidia.
Aber was am Ende kommt das entscheidet Jensen, denn er regiert eisern mit seiner gerenderten Lederjacke.
Wer hat was von "gläsern" gesagt? Aber um dir auf die Sprünge zu helfen ... wer als der GPU-Marktführer mit weitaus größerem R&D, der zweifellos weitaus mehr ausprobiert und in echte Prototypen überführt, könnte wohl am besten abschätzen, was von AMDs GPU-Abteilung erwartet werden kann? AMD kocht auch nur mit Wasser, bei GPUs wie auch bei CPUs!
DLSS: Ist mittlerweile ein breit gefächertes Gebiet ... Meinst du Upscaling? Was sollte man dazu noch groß hören, da ist nicht mehr allzu viel zu erwarten. Die Qualität kann durch besser trainierte Netze weiter optimiert werden, jedoch wird das keine Aha-Effekte mehr hervorzaubern, weil die Qualität bereits so gut ist. Und mit optimierter Hardwareunterstützung kann man die Generierung ggf. um 1 oder 2 weitere Millisekunden drücken, was insgesamt jedoch nicht so viel ausmacht, da der DLSS-Teil der Renderpipeline nur einen kleinen Teil ausmacht.
FG: Kam so überraschen für dich? Warum? Die GPUs berechnen 60 bis 120+ Bilder pro Sekunde, die sich stellenweise kaum voneinander unterscheiden und zudem kann das menschliche Auge die einzelnen Frames per se nicht im Detail analysieren, sodass es hier naheliegend ist, insbesondere mit den seit langem zunehmenden ML-Rechenpotential unterstützend unter die Arme zu greifen. Auch AMD wird davon wenig überrascht worden sein.
RT: Ist zweifellos der interessanteste Bereich, da nVidia hier einige Technologien unter den DLSS-Umbrella packt, aktuell Ray Reconstruction, das erste Technologien der technical Papers implementiert, die man auf vorherigen GDCs bestaunen konnte und die dazu beitragen bessere RT-Lösungen unter gegebenen Hardware/Ray-Limits zu erzielen.
Was dein "Mäuler"-Satz mir sagen soll, erschließt sich mir nicht, aber wenn du hier irgendwie den Bogen hin zu AMD spannen wolltest ... die rennen SW-technisch seit langem nur noch hinterher. Irgendwelche Akzente habe die schon seit Ewigkeiten nicht mehr gesetzt. Und nein, dass bspw. FSR "frei" verfügbar ist, ist nicht AMDs Großzügigkeit zuzuschreiben, sondern schlicht dem Marktdruck, unter dem sie stehen. Wenn die gekonnt hätten, hätte auch die zweifellos lieber eine solche Entwickug eher zum Vertrieb ihrer eigenen aktuellen GPUs genutzt, aber damit wäre ihre Entwicklung zur Bedeutungslosigkeit verdammt gewesen, da sie ja nur recht kleine Marktanteile bei aktuellen GPUs haben. Sie hatten also schlicht keine andere Wahl als möglichst viele GPU-Nutzer zu aktivieren und das ging nur, indem man nVidia- und Intel-Nutzer adressierte. Intel musste mit XeSS schlicht ins gleiche Horn blasen ...
Btw ... das soll nicht bedueten, dass man als Konsument nun nicht von der Situation profitieren kann (
bspw. FSR und XeSS für "alle"), nur man sollte sich davor hüten hier AMD falsche Absichten zu unterstellen ... sie hatten hier schlicht keine andere Wahl.