News AMD Radeon RX 7800 XT: Navi 32 und nur 60 Compute Units sind offiziell bestätigt, aber noch keine Spur von FSR 3

FSR3 wo? Wann? Überhaupt? :huh: :huh: :huh:
Ich kann es auch nicht mehr lesen. Ich gehe mittlerweile davon aus, dass FSR3 nur für RDNA3 angedacht ist, das aber aufgrund der großen RDNA2 Halde, lieber nicht mitgeteilt wurde.

Der GPU Markt ist einfach nur noch erbärmlich.

Man stelle sich vor: 3dfx Voodoo2, gleich schnell wie die erste Gen, aber dafür effizienter. Was wäre DAS für ein Verkaufserfolg geworden.
 
Effizienter, mehr Raytracingleistung, FSR3 - erfüllt alle Anforderungen. Mehr gibt es bei keinem anderen Anbieter in der Klasse.
Effizienter? Wenn die 255W verbraucht sind das 15%.
Mehr Raytracing? etwa 10-15%.
FSR3? Gibt es noch nicht. Darauf warten 7900XTX Käufer schon seit 7-8 Monaten...

Eine 6800XT gibt es für 530€, der Releasepreis war 649$/649€, soviel kostet aktuell die 7900GRE, welche eigentlich die 7800XT sein müsste.
Vermutlich wird die Karte zwischen 549-599$ starten, das wären 600-650€. Für 589€/629€ gibt es aber schon die 6900XT/6950XT, welche in Raster schneller sein werden als die 7800XT, nur in RT wird die 7800XT vermutlich 5% schneller sein als die 6900XT/6950XTs.

Ergo, die Karte müsste mit 499$ starten, damit die sich hier auf dem Markt überhaupt halten kann...
 
Ist also gefühlt ein Rebrand einer 3 Jahre alten Karte zum Preis einer aktuellen, allerdings mit folgendem, bahnbrechendem Featureset: Nichts.
Nicht, dass ich es feiern würde, wenn DLSS3 äquivalente Klamotten RDNA3-Only wären, aber immerhin wären sie ein gewichtiges Kaufargument bei dem sonst kaum vorhandenen Mehrwert ggü. der pre-gen.

Üblich wäre jetzt, dass dadurch die 6800XT ordentlich vom Preis runtergeht, aber gewiss wird das (Glaskugel inc.) nicht passieren.

Bei beiden Lagern habe ich mittlerweile das Gefühl, dass man uns nicht für dumm, sondern für geistig schwerbehindert hält.
 
Naja.. 15% mehr RT Leistung bei vielleicht 30watt weniger Verbrauch..
(Wo mir doch jeder immer versucht hat zu erklären wie toll sich gerade die 6800xt Untervolten und gleichzeitig übertakten lässt)
Hier geht's nur übern Preis.. und der muss echt gut sein.. und das sehe ich nicht.


Was FSR3 angeht.. tjoar im Moment ist das alles mehr oder weniger ein Gerücht.. gepaart mit aufgebauschter Hoffnung und wunschdenken einiger...

Es ist weder bekannt wie es funktioniert.. ob es funktioniert.. noch mit was es funktioniert..
Alles was wir haben ist die Ankündigung das man sowas machen will.

Und wenn FSR3 releast wird muss es nicht unbedingt ne FG Komponente haben.. vielleicht ist es auch nur ne weiterentwickelte Version von FSR mit der Versionsnummer 3 und FG wird irgendwann nachgeschoben.

Und dann wäre halt auch noch die Frage der Qualität.. wie gut kann AMD da ohne Deep learning und spezieller Hardware Einheiten mithalten..
Vorallem wenn man bedenkt das Nvidia bald 1 Jahr Entwicklungsvorsprung hat und seine KIs damit füttern konnte in der Zwischenzeit.

Wir sehen ja jetzt schon das FSR nicht mit DLSS mithalten kann und sich je nach Spiel sogar mit Intels XeSS schwer tut


Es sind im Moment einfach zuviele was wäre wenn um sich auf FSR3 einen abzukeulen
 
Wow, das Nachfolgemodell ist/wird effizienter, Punkt. Ein Riesenerfolg.
Wieviel tatsächlich effizienter ist noch die Frage... die Referenz 6800XT hat knapp 300W Verbrauch, die errechneten 255W sind da nicht der Burner. Wenn dann noch die Karte bei der Rasterleistung schwächelt, und an der 6800XT nicht wirklich vorbeiziehen kann, noch schlimmer.
 
Ich persönlich will einfach nur die beste Renderqualität haben und wenn sie nicht detailliert genug ist, soll die Auflösung erhöht werden. Sehe es als erwiesen an, dass man durch Aufbereitung nativer Informationen keine genaueren Informationen erreichen kann.

Und wo kommen diese Details her, wenn die in der nativen Quelle nicht darstellbar sind?
Der Trick lautet Jitter. Das Eingangsbild für das TAA(denn genau das sind FSR2 und DLSS2 eben auch) wird immer ein paar (Sub-)Pixel hin und her geschoben, so dass der Algorithmus über die Zeit (also das T in TAA) auch die Werte zwischen zwei Pixeln real zu sehen bekommt. Zusammen mit der Info wie viel denn verschoben wurde kann man damit durchaus Details "real" rendern die im klassischen nativen Bild nicht drin waren.

Die Grundidee ist ähnlich wie die des Dithering:
 
Zuletzt bearbeitet:
Der Trick lautet Jitter. Das Eingangsbild für das TAA(denn genau das sind FSR2 und DLSS2 eben auch) wird immer ein paar (Sub-)Pixel hin und her geschoben, so dass der Algorithmus über die Zeit (also das T in TAA) auch die Werte zwischen zwei Pixeln real zu sehen bekommt. Zusammen mit der Info wie viel denn verschoben wurde kann man damit durchaus Details "real" rendern die im klassischen nativen Bild nicht sein waren.
Klingt plausibel. Ich muss zugeben, dass ich AA ohne Upsampling im Hintergrund auch als nativ gezählt habe. Ganz ohne irgendein AA ist meist selbst in UHD sehr unruhig. Bleibt natürlich dennoch ein heuristischer Faktor und dass das in Bewegung so seine Tücken hat. Und so richtig ist das ja auch keine Besonderheit von DLAA.
 
Effizienter? Wenn die 255W verbraucht sind das 15%.
Mehr Raytracing? etwa 10-15%.
FSR3? Gibt es noch nicht. Darauf warten 7900XTX Käufer schon seit 7-8 Monaten...

Eine 6800XT gibt es für 530€, der Releasepreis war 649$/649€, soviel kostet aktuell die 7900GRE, welche eigentlich die 7800XT sein müsste.
Vermutlich wird die Karte zwischen 549-599$ starten, das wären 600-650€. Für 589€/629€ gibt es aber schon die 6900XT/6950XT, welche in Raster schneller sein werden als die 7800XT, nur in RT wird die 7800XT vermutlich 5% schneller sein als die 6900XT/6950XTs.

Ergo, die Karte müsste mit 499$ starten, damit die sich hier auf dem Markt überhaupt halten kann...
Da aber keine 6900er mehr nach produziert werden, beschränkt sich das Problem auf einen überschaubaren Restbestand im Handel.
 
Klingt plausibel. Ich muss zugeben, dass ich AA ohne Upsampling im Hintergrund auch als nativ gezählt habe. Ganz ohne irgendein AA ist meist selbst in UHD sehr unruhig. Bleibt natürlich dennoch ein heuristischer Faktor und dass das in Bewegung so seine Tücken hat. Und so richtig ist das ja auch keine Besonderheit von DLAA.
FSR2 im speziellen ist im Grunde wirklich "nur" ein besonders guter TAA Algorithmus mit (optional, 1:1 gibt die Lib durchaus auch her) erhöhter Ausgabeauflösung.
Afaik ist halt unter Anderem das Input Jittern kein Standard bei den ersten TAAs gewesen. Das neue UE5 TAA tut es vermutlich auch und ist damit ein direkter Konkurrent.
DLSS und XeSS dagegen haben zusätzlich eine Menge Sonderfälle gelernt die man im klassischen Code als unöttige Spaghetti raus werfen würde. In 95% der Fälle macht das das Bild noch etwas besser, in den restlichen 5% kann es zu quasi beliebigen Artefakten führen.
Im Grunde bleibt es also die Frage nach dem "wer macht das beste TAA". Und manches ist halt mittlerweile so gut, dass es selbst bei reduzierter Renderauflösung bessere Bilder ausgibt als ein schlechteres Verfahren mit höherer Auflösung.

MSAA ist dagegen als Vergleich schon lange nicht mehr geeignet, weil es nicht auf Screenspace Effekte wirkt.
 
Zuletzt bearbeitet:
Wieso? 16GB VRAM, tolle Rasterpower, FSR2, Effizient - was will man mehr? Und vor allem wer hat etwas besseres? Ein 12GB Speicherkrüppel wird sich wohl niemand in der Preisklasse kaufen.
Da habe ich lieber einen 12 GB Krüppel als eine AKW im PC stecken! Ich habe meine 7900XTX heute gegen eine RTX 4090 getauscht und das ist wie Tag und Nacht! Wer diese AMD gut findet weiß ich wirklich nicht und schön langsam weiß ich warum Nvidia solch unverschämte Preise ausrufen kann, denn eine ernsthafte Konkurrenz hatten die schon lange nicht mehr!
 
Ehrlich gesagt frage ich mich was AMD mit der 7000er Generation erreichen möchte?
Gerade die Mittel- und Oberklasse sind wohl alle grob so schnell wie deren Vorgänger. Bis auf ein paar Prozent mehr RT Leistung und ein paar Watt weniger Verbrauch ist das schon ganz schön traurig.

Die RX7800XT hätte eher eine RX7700XT werden sollen aber in dieser Gen will man den Kunden wohl mit großen Zahlen im Namen veräppeln.
 
6GB VRAM, tolle Rasterpower, FSR2, Effizient - was will man mehr? Und vor allem wer hat etwas besseres? Ein 12GB Speicherkrüppel wird sich wohl niemand in der Preisklasse kaufen.
Ich glaube (fürchte), da unterliegst du einer Fehleinschätzung:

Erstens, die vermutlich weitaus bessere Effizienz der RTX 4070: Macht sie in den Gesamtkosten über die Laufzeit preiswerter als die mutmaßliche RX 7800 (XT) bei gleichem Kaufpreis, vor allem in einem Hochpreisland wie D, was den Strom betrifft. Und es soll Leute geben, denen ist ein niedriger Energieverbrauch wichtig...

Zweitens: DLSS 3.0. Egal, was man davon hält, nVidia ist es gelungen, das als Kaufargument populär zu machen. Wo bleibt FSR 3.0?

Drittens: Die erwartbar bessere Raytrracing-Leistung: Es soll Leute geben, die Wert auf gutes RT legen.

Viertens: CUDA für spieleferne Anwendungen. AMD bringt jetzt HIP-SDK aber das kennt niemand und muss sich erstmal als bugfrei und performant erweisen.

Fünftens: Das bessere Markenimage der "Grünen" im Vergleich zu den"Roten" (Der "Schulhof-Effekt", sollte man nicht unterschätzen!)

Sechstens: 12 GB VRAM bringen gegenüber 16 GB VRAM deutlich weniger spürbare Nachteile als 8 gegenüber 12 GB. Wer ohnehin nach 3-4 Jahren die GPU aufrüstet, wird mit den 12 GB wohl noch gut hinkommen.

Und siebtens: Wer soll sich eine RX 7800ß (XT) ohne nennenswerte Mehrleistung zu einer dann fast 100 € billigeren RX 6800 XT kaufen?

Daraus folgt: Für 600 € wird die Karte wie Blei in den Regalen liegen und nur von "150%gen" Fanboys ein Gnadenbrot erhalten. Ansonsten wird es ihr gehen wie der 7900 XT und wir werden einen vergleichbar rapdden Preisverfall an den Märkten erleben...

AMD scheint es einfach nicht zu kapieren (oder kapieren zu wollen), echt traurig:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

LG N.
 
Da aber keine 6900er mehr nach produziert werden, beschränkt sich das Problem auf einen überschaubaren Restbestand im Handel.
Ach wie praktisch für AMD... Einfach mal die günstigen Karten aus dem Handel nehmen um die teureren neuen Karten zu verkaufen.
Das die Karten aus dem Handel verschwinden, darauf wartet AMD auch schon seit dem letzten Jahr, deshalb kamen ja bisher keine 7800XT und 7700XT. Anderorts gibt es schon länger keine 6900XTs mehr, hier in Deutscheland schon.

Die RX7800XT hätte eher eine RX7700XT werden sollen aber in dieser Gen will man den Kunden wohl mit großen Zahlen im Namen veräppeln.
Definitiv. Wenn es sich bewahrheitet, dass die genauso schnell ist wie eine 6800XT, dann ist es das selbe Upselling das Nvidia mit der 4060Ti und teils mit der 4070 macht.
 
Der PC stirbt schon gefühlt seit 20 Jahren. Immer dieselbe Leier...... :schief:
Vor 20 Jahren (2003) wuchs der PC-Markt zum Vorjahr um über 11 Prozent. Schon 2008 wurden mehr PC verkauft als 2022. Für 2023 wird ein weiterer Rückgang dieses Marktes um ca 14 Prozent erwartet. Wohin zeigt also die Tendenz?
 
Is das so? Ich muss mich da mal einlesen. ^^
Ja das ist so:

Oder denkst du AMD hat die 6800/6900 XT aus Spaß mit 300W Verbrauch angegeben? Die 255W sind nur der Chip und ein paar Extras. Spawas und co fehlen da.
 
Da hat sich das Warten ja gelohnt... Nicht. :-D

Nach der Meldung gestern dann doch noch schnell ne RX 6800 XT für 529€ gekauft bevor die alle weg sind. Billiger wird die RX 7800 XT zu Release bestimmt nicht.
 
Zurück