News AMD FSR 3: DLSS-3-Konkurrent mit Frame Interpolation soll angeblich bald erscheinen

@gerX7a Hab ich da etwas völlig missverstanden oder liegst du evtl falsch?


Quelle: https://www.igorslab.de/amd-spricht...pcs-in-spielen-durch-ki-intelligenter-machen/

Über diese Art der KI-Beschleunigung verfügen RDNA1/2 m.W.n. eben nicht.

Ich hoffe ja inständig, das auch zumindest RDNA2 in vollen Zügen von FSR3 profitieren wird, nur glaube ich es halt angesichts o.g. Sachverhaltes eher weniger oder eben nur eingeschränkt bzw. mit niedrigerer Performance.
Ich würde hier mit einem "jain" antworten. ;-) Dedizierte Einheiten hat AMD weiterhin nicht.
Die Shader-Blöcke verfügen über einen Satz Vector General-Purpose Registers (sowie Scalar GPRs) und denen wurde zusätzliche "Verdrahtung" in Form eines sogenannten "AI Matrix Accelerator" beigefügt. Diese implementieren die zuvor erwähnten WMMA-Instruktionen, die Generalized Matrix Multiplication (GEMM) Operations beschleunigen. AMD selbst schreibt hierzu:
The WMMA instruction optimizes the scheduling of data movement and peak math operations with minimal VGPR access by providing source data reuse and intermediate destination data forwarding operations without interruption. The regular patterns experienced in matrix operations enable WMMA instructions to reduce the required power while providing optimal operations that enable sustained operations at or very near peak rates.
Das was nVidia mit seinen Tensor Cores bietet, geht noch ein gutes Stück darüber hinaus, wobei diese zudem auch deutlich funktionsreicher sind (bspw. inkl FP64-Funktionalität).
Dennoch hat AMD hier den Durchsatz ggü. RDNA2 verdoppeln können bzgl. FP16, konkret 512 Flops/Clock/CU. Neu hinzu kam bfloat16-Support mit gleichem Durchsatz, während sich bei den kleinen Integer-Formaten ggü. RDNA2 nichts geändert hat (letztere sind bspw. relevant für "sparsames" Inferencing, also das Anwenden von NNs).
Mit den WMMA-Operationen erreicht AMDs RX 7900 XTX theoretische Spitzenwerte von rd. 123 TFlops mit FP16 oder bspw. auch INT8 (verdoppeln kann RDNA3 den Durchsatz nur mit dem sehr kleinen und deutlich seltener anwendbaren INT4-Format).
Die RTX 4090 erreicht hier 330 TFlops respektive 661 TFlops. Unter Verwendung von deren Sparsity-Feature können sich die Leistungswerte bei nVidia gar noch bis hin zu verdoppeln. Die RTX 4080 erreicht hier 195 und 390 TFlops, mit Sparsity ebenfalls mit der Option bis hin zur einer Durchsatzverdopplung.
Hier ist man also noch ein gutes Stück weit weg von nVidia, hat aber zumindest ggü. RDNA2 an einigen Stellen deutlich zugelegt.
Man darf jedenfalls gespannt sein, wie sich das in Gaming-relevante Features ummünzen lässt, so bspw. ein FSR3 und was das für GPUs ohne diese Architekturverbesserung von RDNA3 bedeuten wird bzw. ob und welche Kompromisse hier AMD möglicherweise eingehen wird, um das Feature auch auf zumindest einigen anderen/älteren GPUs zum Laufen zu bekommen, denn nur bezogen auf RDNA3 wäre die Attraktivität ob des kleinen Marktanteils relativ gering.
 
Zuletzt bearbeitet:
Ich würde mich eher freuen wenn sie an der Qualität von fsr2 arbeiten würden. Falls es nicht nur an den Studios liegt. Ich finde xess ist teils besser.
Da hast gar nicht mal so Unrecht.
Beim letzten Vergleich (siehe Anhang) finde ich XeSS fast am Besten.
 

Anhänge

  • XeSS.jpg
    XeSS.jpg
    381,8 KB · Aufrufe: 61
Bei AMD heißt die Devise leider zu oft Konjunktiv statt Indikativ. FSR3 sollte bereits seit mehreren Monaten verfügbar sein und könnte mit dem Starfield-Launch kommen, zumindest müsste es nach aktuellem Stand im letzten Quartal 2023 erscheinen. Immer die Warterei auf heiß angekündigte Features und Technologien, welche wenn überhaupt, grundsätzlich zu spät kommen. DLSS3 stand mit dem Launch der ersten Ada-Karte parat, das war im September 2022 und somit knapp ein ganzes Jahr her. Nvidia wird zwischenzeitlich nicht tatenlos rumgesessen haben und mit der nächsten Generation wieder einen draufsetzen. Der fine wine korkt langsam.
 
Es gibt doch schon seit Jahren das Radeon Anti-Lag, was also stimmt nicht damit?

Angeblich soll Reflex die Latenz spürbarer senken können. Zumindest schafft Reflex laut igorslab tendenziell eine leicht niedrigere Latenz. Wobei ich finde, dass man ~5-10ms Unterschied gar nicht gross merken kann. Anders als bsw. ein Unterschied von 50-100ms, wenn man beim TV Frameinterpolation ein- oder ausschaltet.
Letztlich hat allein der menschliche Körper schon eine Latenz ab Signaleingang von 130ms aufwärts, die zu treffenden Entscheide ziemlich viel Latenz verursachen und der ausgegebene Befehl wiederum Zeit benötigt, bis es beginnt, dass er umgesetzt wird. Bsw. ist bei einer Notbremsung eine mentale Reaktionszeit, resp. Latenz von 200ms schon ein sehr guter Wert, die Umsetzung des Bremsstarts selbst dauert dann sogar etwa 1000ms.

Weniger Latenz ist im Zweifel natürlich immer besser, absolut begrüssenswert, und bekommt besonders bei Zwischenbildberechnungen etwas mehr Gewicht. Aber wenn ich sehe, mit welch hohen technischen Latenzen ich früher schon gespielt habe, bsw. mit Zwischenbildberechnungen über den TV, wird hier die Suppe wieder mal oft heisser gekocht, als nötig.

Ich vermute jedoch Anti-Lag für sich ist tatsächlich nicht so gut für die Beschleunigung von Zwischenbildberechnungen geeignet, weil Anti-Lag später in der Grafikpipeline eingreifen soll als es Reflex tue, was auch der Grund für den tendenziell etwas geringeren Vorteil darstellt. Bestenfalls wird AMD also zusammen mit FSR3 auch ein verbessertes Anti-Lag 2 liefern. Das würde aber bedeuten, dass die Spieleentwickler es wieder aktiv in ihre Spiele einbauen müssten.
Das derzeitige Anti-Lag ist halt so konzeptioniert, dass es überall einsetzbar ist und sich bequem über den Treiber aktivieren lässt. Das kann nicht so tief in der Renderpipeline drin sein, wie eine Tech, die von den Entwicklern implementiert werden muss.
 
Ginge halt nur, wenn FSR3 einfach über den Treiber oder so aktiviert werden kann, denn für die verschwindend geringe Anzahl an RDNA2/3 wird sich kein Publisher/Entwickler außerhalb sponsored Titeln die Mühe machen und sei es noch so simpel.
Am PC-Markt geht an Nvidia nun mal kein Weg vorbei und wenn man nicht nur die Konsolen mit FSR3 bestücken will, dann bleibt einem gar nichts anderes übrig als OpenSource zu agieren, siehe FSR2 oder auch XeSS.
Ist man für die Verbreitung aber nicht auf die Spiele selbst angewiesen, dann wird es sicherlich Exklusiv werden, vielleicht sogar nur für RDNA3. Ich bin gespannt was da kommt, vor allem wie es sich technisch gegen Nvidia's Ansatz schlägt.
Ich meine gelesen zu haben, dass AMD FSR 3 genau so via Treiber realisieren will.
 
..es hieß damals ja bei der Einführung von HAGS (Hardware Accelerated GPU Scheduling), das würde keinen spürbaren - direkten - Vorteil bringen..

Daran hat sich vermutlich bis heute nicht viel geändert, von ein paar Ausnahmen mal abgesehen, in Spielen wie RDR2 oder vornehmlich einigen wenigen anderen Vulkan basierten Titeln..

ABER,
interessanterweise - ausgerechnet dieses eine gern vergessene/kaum beachtete Feature, kein Wunder, machte ja kaum Unterschied ob an/aus im Gegensatz zu rBAR wo man schon eher was gemerkt hatte -
wurde HAGS dann Voraussetzung für die Nutzung von Nvidias "Frame Generation" (ist es immer noch so derzeit?),
also jenem Feature was für den theortisch größtmöglichen Performance Boost überhaupt sorgen kann..

Bin sehr gespannt wie es bei "Fluid Motion Frames Technology" wie es nun vielleicht bei AMD und FSR3 heißen wird dann aussieht, wenn es denn überhaupt annähernd ähnlich hardwar/software technisch funktioniert...

?) Wird auch dort Treiberunterstützung von HAGS Voraussetzung sein?

?) Wird es wirklich wieder hersteller-agnostisch sein, und quasi auf jeder GPU funktionieren?

?) Oder doch nur auf AMD Karten?

?) Und wenn ja, auf welchen?

?) Sind bei den neuen 7000ern irgendwelche Einheiten in Hardware vorhanden die es bei den 6000ern noch nicht gab, die man genau hierfür nutzen könnte,
sodass FSR3 und/oder die "Fluid Motion Frames Technology" dort evtl besser verhältnismäßig schneller funktionieren oder besser aussehen könnte?
also ähnlich wie XeSS was zwar überall läuft - seit version 1.1 sogar erstaunlich gut bisweilen - aber immer noch gewisse Vorteile haben soll wenn es auf den nativen Pfad und den XMX Cores auf der Arc zurückgreifen kann)

nochmal zur ersten Frage, ist für mich die interessanteste, denn ich besitze nur noch eine Arc A770 derzeit, und da freu ich mich über jedes bisschen mehr an fps, zumindest wenns dadurch kein pixelbrei wird... :

sollte FSR3 / "Fluid Motion Frames Technology" zwar grundsätzlich wieder "überall" laufen aber HAGS dann doch als Minimum voraussetzen,

wäre das für Intel GPU Besitzer ziemlich doof:

denn HAGS Support bietet man dort auch fast über einem Jahr noch immer nicht an, obwohl es mal damals hieß man würde mit Microsoft zusammen dran arbeiten um das evtl noch zu implementieren.. dann wurde es still dazu, kA ob man den Plan verworfen hat oder es einfach niedrigere Priorität hat.

PS: würde mich nicht wundern wenn Intel über kurz oder lang was ähnliches wie "frame generation" oder "Fluid Motion Frames Technology" bringen sollte..

Zumindest arbeitet man nach wie vor stetig an der Verbesserung von XeSS und auch an Tools die es Entwicklern erleichtern sollen das schneller zufriedenstellend implementieren zu können bzw für besseres fein-tuning / tweaking

Auf der Intel Innovation werden wir zumindest wohl erfahren wie's bei XeSS weitergeht, womöglich wird dann die nächste Version offiziell vorgestellt,
bin gespannt ob es dieselbe 'geheime' Version 1.2 sein wird, die derzeit in Ratchet & Clank verwendet wird wo keiner was drüber weiß und die es offiziell nicht zum download gibt,
oder ob man schon einen Schritt weiter ist - und was das dann genau sein wird.. kleinere Optimierungen/Feinschliff, oder krasse Neuerungen?
 
Zuletzt bearbeitet:
Wirklich interessant ist für mich die neue Anti-Lag Variante und wie an zu nehmen , sind die zwei Techniken in einander verwoben. Sehr ähnlich wie bei NVidia mit reflex.

Zu FSR3 selber.
Ich glaube, genau wie bei DLSS3 wird es nicht überall wo anwendbar auch Vorteile bieten. Auch muss man davon ausgehen, dass Vektoren Informationen vom Spiel benötigt werden und daher vom Spiel selbst implementiert werden muss.
Gleiche Voraussetzung wie FSR2.x. Aber schon das war nicht zu vordernd für die Entwickler und von da dürfte es wirklich per Treiber möglich sein.

Ich würde jedoch aufhören, jede GPU zu unterstützen.
Danke für FSR1-2, aber jetzt reichts mit dem Support eines jeden GPU-Herstellers. Am Ende kann man die eigene alte Riege nicht mehr supporten, gerade erst geschehen mit Vega und Polaris.
 
Die AI Einheiten von RDNA 3 finden wohl keine Verwendung, für diese sieht AMD letzten Gerüchten nach in der Zukunft wichtigere Aufgaben vor.
Ohne Gebrauch der AI Einheiten ist eine Nutzungsmöglichkeit entsprechend auch unterhalb RDNA 3 sehr wahrscheinlich.
Das wäre geil, dann muss es auch mit 3000er Karten von NV möglich sein, hoffe ich mal :)
 
..es hieß damals ja bei der Einführung von HAGS (Hardware Accelerated GPU Scheduling), das würde keinen spürbaren - direkten - Vorteil bringen..

Daran hat sich vermutlich bis heute nicht viel geändert, von ein paar Ausnahmen mal abgesehen, in Spielen wie RDR2 oder vornehmlich einigen wenigen anderen Vulkan basierten Titeln..

ABER,
interessanterweise - ausgerechnet dieses eine gern vergessene/kaum beachtete Feature, kein Wunder, machte ja kaum Unterschied ob an/aus im Gegensatz zu rBAR wo man schon eher was gemerkt hatte -
wurde HAGS dann Voraussetzung für die Nutzung von Nvidias "Frame Generation" (ist es immer noch so derzeit?),
also jenem Feature was für den theortisch größtmöglichen Performance Boost überhaupt sorgen kann..

Bin sehr gespannt wie es bei "Fluid Motion Frames Technology" wie es nun vielleicht bei AMD und FSR3 heißen wird dann aussieht, wenn es denn überhaupt annähernd ähnlich hardwar/software technisch funktioniert...

?) Wird auch dort Treiberunterstützung von HAGS Voraussetzung sein?

?) Wird es wirklich wieder hersteller-agnostisch sein, und quasi auf jeder GPU funktionieren?

?) Oder doch nur auf AMD Karten?

?) Und wenn ja, auf welchen?

?) Sind bei den neuen 7000ern irgendwelche Einheiten in Hardware vorhanden die es bei den 6000ern noch nicht gab, die man genau hierfür nutzen könnte,
sodass FSR3 und/oder die "Fluid Motion Frames Technology" dort evtl besser verhältnismäßig schneller funktionieren oder besser aussehen könnte?
also ähnlich wie XeSS was zwar überall läuft - seit version 1.1 sogar erstaunlich gut bisweilen - aber immer noch gewisse Vorteile haben soll wenn es auf den nativen Pfad und den XMX Cores auf der Arc zurückgreifen kann)

nochmal zur ersten Frage, ist für mich die interessanteste, denn ich besitze nur noch eine Arc A770 derzeit, und da freu ich mich über jedes bisschen mehr an fps, zumindest wenns dadurch kein pixelbrei wird... :

sollte FSR3 / "Fluid Motion Frames Technology" zwar grundsätzlich wieder "überall" laufen aber HAGS dann doch als Minimum voraussetzen,

wäre das für Intel GPU Besitzer ziemlich doof:

denn HAGS Support bietet man dort auch fast über einem Jahr noch immer nicht an, obwohl es mal damals hieß man würde mit Microsoft zusammen dran arbeiten um das evtl noch zu implementieren.. dann wurde es still dazu, kA ob man den Plan verworfen hat oder es einfach niedrigere Priorität hat.

PS: würde mich nicht wundern wenn Intel über kurz oder lang was ähnliches wie "frame generation" oder "Fluid Motion Frames Technology" bringen sollte..

Zumindest arbeitet man nach wie vor stetig an der Verbesserung von XeSS und auch an Tools die es Entwicklern erleichtern sollen das schneller zufriedenstellend implementieren zu können bzw für besseres fein-tuning / tweaking

Auf der Intel Innovation werden wir zumindest wohl erfahren wie's bei XeSS weitergeht, womöglich wird dann die nächste Version offiziell vorgestellt,
bin gespannt ob es dieselbe 'geheime' Version 1.2 sein wird, die derzeit in Ratchet & Clank verwendet wird wo keiner was drüber weiß und die es offiziell nicht zum download gibt,
oder ob man schon einen Schritt weiter ist - und was das dann genau sein wird.. kleinere Optimierungen/Feinschliff, oder krasse Neuerungen?

Also HAGS an sich müsste hardwaretechnisch eigentlich weit zurück in die GCN-Ära funktionieren können.
Der AMD-Support meldete einst, dass sie das Feature letztlich nicht softwaretechnisch implementierten, weil es keinen so grossen Mehrwert bot, wie ursprünglich gedacht. AMD ist nicht bekannt dafür, dass sie Dinge aktivieren, die in der Praxis keinen Sinn ergeben. So hätte AMD bsw. RayTracing auch für ältere Generationen freigeben können, wie das NVidia tat, entschieden sich aber dagegen, weil performancetechnisch einfach sinnfrei. Ist schade für Experimentierfreudige, aber kein Beinbruch. Manchmal geht auch etwas schief, wie die Primitiv Shaders bei Vega, die laut AMD hardwaretechnisch zwar grundsätzlich funktionierten, aber dort in der Praxis als zu aufwändig herausstellten, so dass sie keine Performancevorteile boten. Laut Anandtech-Inteview sollen diese dann quasi einen Reboot mit RDNA1 bekommen haben. Genutzt wird es glaube ich aber trotzdem kaum, man hört zumindest sehr wenig darüber.

Wenn HAGS also grössere Vorteile für FSR3 bringen sollte, dürfte das dann auch breit kommen. Der HAGS-Beta-Treiber für RDNA1 zeigte allerdings zumindest, dass da wohl noch einiges an Arbeit reingesteckt werden muss. Ganz so trivial scheint es jedenfalls nicht zu sein, wenn zwei von drei grossen GPU-Hersteller hier noch hinterher hinken.

Dass Features auf neuerer Hardware tendenziell besser/umfangreicher laufen als auf älterer ist normal. RT ist da das aktuell beste Beispiel für.
 
Zumindest schafft Reflex laut igorslab tendenziell eine leicht niedrigere Latenz.
„Tendenziell eine leicht niedrigere Latenz“? :ugly:

Im GPU Limit, logischerweise auch nur da, ist Reflex was Latenz angeht ein absoluter Gamechanger:
IMG_2107.png

Quelle: https://www.igorslab.de/radeon-anti-lag-vs-nvidia-reflex-im-test-latenzvergleich/5/

Die Latenz wird mal eben so halbiert und genau das ist was Frame Generation überhaupt nutzbar macht. Damit sinkt die Latenz bei Einsatz von FG auf das Niveau der nativen Darstellung ohne Reflex und FG. Also das was AMD und Intel schaffen.
 
„Tendenziell eine leicht niedrigere Latenz“? :ugly:

Im GPU Limit, logischerweise auch nur da, ist Reflex was Latenz angeht ein absoluter Gamechanger:
Anhang anzeigen 1434050
Quelle: https://www.igorslab.de/radeon-anti-lag-vs-nvidia-reflex-im-test-latenzvergleich/5/

Die Latenz wird mal eben so halbiert und genau das ist was Frame Generation überhaupt nutzbar macht. Damit sinkt die Latenz bei Einsatz von FG auf das Niveau der nativen Darstellung ohne Reflex und FG. Also das was AMD und Intel schaffen.
Was viele gerne vergessen ist..das Nvidia Karten mit fg+Reflex oftmals immer noch niedrigere Latenzen haben als AMD sie Nativ hinbekommt
 
Ich will alles nativ berechnet. Und volle power für Pathtracing.

Ergo setze ich noch mindestens eine Generation aus. Die 4090 ist zu teuer, die 4080 vom Preis-Leistungs Verhältnis her nicht in Ordnung. AMD hat bei Raytracing gepatzt und hätte die Mittelklasse viel früher veröffentlichen müssen.


Keine Ahnung wieso sich Grafikkarten so schlecht verkaufen seit einiger Zeit. Ob das womöglich an den Preisen oder dem miserabel abgestuften Leistungs- / Produktportfolio liegt?

Ich bin zahlender Kunde - los verprellt mich :-D
 
Gebt der Software ihre Zeit.
DLSS hat so viele Nachteile und Fallstricke, da ist es eigentlich eh egal, ob man nun auf ein vergleichbares Produkt 6 oder 12 Monate oder länger warten muss.
Vor allem Leute mit einer leistungsschwachen Grafikeinheit, wo das Einsetzen dieser Technik eigentlich überhaupt erst logisch sinnvoll wäre, ist die Technik oft gar nicht mehr richtig zu gebrauchen, weil die CPU u.U. dann dafür zu schwach sein könnte, wenn man z.B. unbedingt Raytracing nutzen möchte, oder es sind schon zu wenig Frames für eine möglichst gute Berechnung der Zwischenbilder vorhanden sind, und der Lag udn die damit verbundenen gefühlte Unspielbarkeit bleibt ja auch, wenn man z.B. einen Autoraser mit 30-40FPS plötzlich auf bis zu 60FPS pushen will.
Für Strategiespiele mags dann ja noch reichen.
Wie gesagt, die ganzen Techniken sind kein Wunschfeature sondern ein notwendiges Übel, dem ich mich möglichst lange verwehren werden, indem ich wie seit 30 Jahren Spiele und Hardware zueinander passend nutze.
Ich habe gelernt zu warten, Spiele gibt es genug.
Was viele gerne vergessen ist..das Nvidia Karten mit fg+Reflex oftmals immer noch niedrigere Latenzen haben als AMD sie Nativ hinbekommt
Hast du einen vernünftigen Beleg mit zahlreichen sehr unterschiedlichen Spielen, so wie PCGH das immer macht?
Wäre mal interesant zu sehen.
Im Prinzip glaube ich dir ja, dass NVidia bei Raytracing das schafft, da die Frametimes da auch glatter sind.
Beim Rastern ist aber AMD z.B. viel besser und da bezweifle ich dann deine Aussage, dass NVidia mit FG plötzlich besser sein soll.
Generell steigen die Latenzen mit FG aber auf jeden Fall an, auch wenn NVidia das auf den Marketingfolien anders darzustellen versucht, auch die Verdoppelung der Werte ist eine glatte Lüge, sondern nur ein Ausnahmezustand.
Und ebenso betrifft es die Latenzen.
Da braucht man nur den Test zur 4060 (Ti) anschauen, wie die Karte da mit 8GB an der Frame generation völlig zerbricht und schlechter wird und sogar unspielbar, eben weil man Raytracing, Frame Generation verwenden will, aber der Prozessor und die komplette Speicheranbidnung der Karte können das einfach nicht stemmen.
So kommt es dann, dass die Karte mit dem Feature des Upskalings bei DLSS dann versucht mit geringerer Auflösung die Frames zu pushen, aber am Ende komtm da nur noch Datensalat bei raus und die Minimum-FPS gehen ins Bodenlose und demnach dürfte die Latenz ja auch wohl für den Allerwertesten sein.
Und das war ein einfacher Test, ohne gewollt die Karte zu zerstören, es ist einfach so passiert, und das blüht jedem Aufrüster, der sich nur die 4060 (Ti) 8GB neu kauft udn meint, er könne jetzt damit das nächst beste neue Raytracing Spiel damit zocken.
Das jetzt nur mal so unabhängig von deiner allgemeinen Aussage hier als Zusatz angebracht, wie das in der Realität dann halt auch laufen kann.
 
Zuletzt bearbeitet:
AMD muss abliefern und nicht quatschen. Mehr muss man zu dem Thema auch nicht sagen.
Du hast doch eine 4070 Chill, also chill mal. ;-P
Das nach der Ankündigung noch vielleicht 1 Jahr ins Land vertreichen könnte, war doch eigentlich klar, das entwirft man nicht in Stunden, sondern Monate, und Tests dauern bei der vielzahl an Spielen und Bugfixes und Optimierungen auch noch mal eine Ewigkeit - oder wollt ihr alle nur halbgare Technik, die man dann auch nicht wirklich nutzen will?
Ich habe eine Radeon und mich juckt das Thema überhaupt nicht.
Mein Kauf war bewusst, weil ich NVidia nicht mehr unterstütze.
Die sollen ihre KI-Beschleuniger für 69000 USD für China machen und weniger jammern, dass die Gamer nur noch bedingt stark überteuerte 4050 Karten als 4060 zum Preis einer 4070 kaufen wollen und deren Aktienwerte nicht mehr so stark steigen.
By the way: wer eine sehr günstige Radeon für einfache Spiele sucht: Mindfactory Radeon 6600 für schlappe 189 Euro mit Starfield dazu (siehe PCGH-Schnäppchen-Link). Sowas kann man nochmal machen, wenn man dabei nicht arm werden will oder sich ausgenommen fühlen möchte udn keine hohen Ansprüche hat. :-)
Wer unbedingt kompromisslos Raytracing mit all seinen Features auf höchster Ebene nutzen will, und dem auch ein negatives Firmenimage völlig Latte ist, der soll sich halt eine sehr teure NVidia Karte kaufen.
Er wird es zumindest in den ersten beiden Jahren nicht bereuen.
Dann kommen aber die Tests vom Raff, der dann Karten wie eine 3070 und 3080 gnadenlos mit einem Sortiment an Spielen zerlegt, und dann bekommen alle Gamer wieder Pipi in den Augen und müssen schon wieder für teures Geld zur 4070 Ti greifen, und die ist ja auch schon wieder so knapp mit Speicher ausgestattet. was gerade so für aktuelle schlecht optimierte Spiele reicht - die nächsten 1000 Euro in 2 Jahren stehen also schon wieder auf dem Speiseplan.
Das wird also richtig teuer.
 
Zurück