Systemanforderungen 2.0 für Cyberpunk 2077: RTX 3070 für 1440p mit Raytracing

Und warum, nutzt eine RTX Karte RT Shader der Streamprozessoren nach Tier_1.1? Wird ein Roundtrip gestartet, der wie Inlineraytracing Systemressourcen verwaltet um Overhead zu sparen? Legen sie bereits instanzierte Objekte im schnellen Cache ab um sich Kopiervorgänge und Mehrfachdurchläufe zu sparen und ähnelt ihre Variante bisher in geeignter Weise DXR v1.1?

Kurz nein, das zeigt also du brauchst nicht weiter zu machen. Eine Unterhaltung mit dir diente also nur einem Zweck: Ärger, nutzlose Diskussionen, Moderation. Daher...

Es geht um eine Pipeline in einer Pipeline, die man in lowlevel ausführt und dort gibt es nunmal Unterschiede. Das ist gewollt.

Combined compute pass inkluded adding v.1.1 support...und nur dann kann man schnell sein. Wo ist tressFX auf Nvidia Hardware schnell? Nirgends, du führst eine Gameworks RTX based Nvidia optimierte Anwendung auf AMD Hardware aus und wunderst dich das sie langsamer ist, mein Gott was für eine Erkenntnis.
 
Zuletzt bearbeitet von einem Moderator:
Nirgends, du führst eine Gameworks RTX based Nvidia optimierte Anwendung auf AMD Hardware aus und wunderst dich das sie langsamer ist, mein Gott was für eine Erkenntnis.
Mit etwas weniger Dramatik - es ist eigentlich auch keine große Erkenntnis, dass 2e Gen Turing und 3e Gen Ampere dedizierte Hardwarelösung sich besser im allgemeinen für DXR eignet, als die erste AMD Implementation mit nur einem Raytracing-Beschleuniger auf der CU. Rechenleistung kann man durch keine Optimierungen aus der Luft zaubern, was auch die allermeisten getetesteten RT Titel zeigen, wo Turing und Ampere besser performen als RDNA 2. Die rechtzeitige Implementation der früher im Wissenschaftsbereich (physikalische Berechnungen) genutzten Technik trägt maßgeblich dazu bei, das Nvidia in diesem Bereich führend ist, was man nicht ohne Ausblendung der Fakten bei Architekturunterschieden und gelieferter Performance abstreiten kann.
 
Nein, 8.6GB:

Das war nur Bullshit von AMD und alle AMD Jünger plappern es blind nach :lol:


Der Minecraft RT Benchmark wurde dir oben verlinkt. Dort ist zusehen, dass die 6800XT von einer 2080 Super geschlagen wird und das ohne DLSS.
Netter Versuch, weil in dem Test auch Raytracing und RTX on getestet wurde, ohne sind es schon 8.6 (3070 auwiehö), und DLSS wird wohl nicht unterstützt, da ja RTX auch vorerst kein Thema ist (damit auch NRD nicht). Ja genau...die dummen AMD Jünger die alles nachplappern.

Minecraft ist eine RTX Beta, das Wort selbst erklärt eigentlich schon worum es sich handelt, halt Gameworks RTX. Es ist ein Pahttracing Algorithmus (worüber AMD bisher kein Wort verlor), kein einfaches Raytracing Effektkino, was auch interne DLSS Treiber erfordert. Die Creatorwelten sind massiv RTX only optimiert.

Wie ich schon schrieb...lieber was sinnvolles machen.
 
Netter Versuch, weil in dem Test auch Raytracing und RTX on getestet wurde, ohne sind es schon 8.6 (3070 auwiehö), und DLSS wird wohl nicht unterstützt, da ja RTX auch vorerst kein Thema ist (damit auch NRD nicht). Ja genau...die dummen AMD Jünger die alles nachplappern.
Deine Aussage war, dass es ohne Raytracing schon 12GB VRAM benötigt:
Und Godfall fordert in 4K schon 12 ohne RT...
Techpowerup hat es getestet und widerspricht dir.

Was genau soll RTX on sein? RTX ist die Bezeichnung für die Nvidia Karten, welche RT Hardwareseitig beschleunigen können. Das Spiel ist ein AMD Titel, deswegen versteh ich nicht, wie du hier auf RTX kommst.

Minecraft ist eine RTX Beta, das Wort selbst erklärt eigentlich schon worum es sich handelt, halt Gameworks RTX. Es ist ein Pahttracing Algorithmus (worüber AMD bisher kein Wort verlor), kein einfaches Raytracing Effektkino, was auch interne DLSS Treiber erfordert. Die Creatorwelten sind massiv RTX only optimiert.
Weder RT, noch DLSS fallen unter Gameworks: https://developer.nvidia.com/what-is-gameworks
Der RT Ansatz basiert auf DXR und nicht auf irgendwas Nvidia eigenes, was dort schneller und bei AMD schlechter läuft.
Wie kann man sowas Nvidia only optimieren? DXR sollte doch abstrakt sein.

Wie ich schon schrieb...lieber was sinnvolles machen.
Ist schon ironisch, dass du mir vorwirfst keine Ahnung zu haben, aber jeder einzelne Post von dir nur so voller Falschaussagen und Unwahrheiten trotzt :D
 
Zuletzt bearbeitet:
Deine Aussage war, dass es ohne Raytracing schon 12GB VRAM benötigt:

Techpowerup hat es getestet und widerspricht dir.

Was genau soll RTX on sein? RTX ist die Bezeichnung für die Nvidia Karten, welche RT Hardwareseitig beschleunigen können. Das Spiel ist ein AMD Titel, deswegen versteh ich nicht, wie du hier auf RTX kommst.


Weder RT, noch DLSS fallen unter Gameworks: https://developer.nvidia.com/what-is-gameworks
Der RT Ansatz basiert auf DXR und nicht auf irgendwas Nvidia eigenes, was dort schneller und bei AMD schlechter läuft.
Wie kann man sowas Nvidia only optimieren? DXR sollte doch abstrakt sein.


Ist schon ironisch, dass du mir vorwirfst keine Ahnung zu haben, aber jeder einzelne Post von dir nur so voller Falschaussagen und Unwahrheiten trotzt :D
Was für Unwahrheiten?

Du lehnst dich einfach mal aus dem Fenster nach drei Tagen RT bei AMD zu behaupten, sie sind langsamer weil man Spiele bencht die hilflos auf Nvidia tot optimiert sind. Was willst du da auf AMD Hardware messen? Während Nvidia monatelang an der Performance feilte, mit zig Treibern und Patches durch die Spieleentwickler, DLSS, Denoiser und weitere Modi soll doch bitte AMD sofort mit ihrer neuen Gen, dass Gleiche leisten oder schneller sein. Suche den Fehler selbst.

In dem Forum hier behaupten die Leute einen lieben langen Tag lang irgendwelchen FUD, erst kommt RDNA2 alias Bignavi nicht mal an eine 2080, geschweige denn 2080ti ran und nun sülzt man, wo sich das nicht bewahrheitet hat, bei der RT Performance weiter, obwohl sie den Leistungswert der RA inklusive Computepipeline selbst angeben DXR = 13,7fach bei 471BPS? (wenn man nur wüsste was das bedeutet oder) (es geht um eine räumliche Partitionierung!)?

Wenn man damit natürlich nichts anzufangen weis, ist schon klar, das man lieber irgendwas sülzt.

Wenn es stimmt was du behauptest, schreibt Nvidia auf ihrer Seite über Minecraft ziemlich viel Mist, und ehrlich (bei allem Respekt) ich glaube lieber den Herstellern, als irgendwelchen selbsternannten Experten in Foren, da wurde nämlich in letzter Zeit so viel Stuss geschrieben, dass das gar nicht mehr nur für ein Buch reicht und das sind am Nicknamen gemessen tatsächlich immer die Gleichen.

Du findest das alles selbst im www, da du ja eine Forensoftware bedienen kannst, wirds dann mit den Informationen auf den betreffenden Seiten auch klappen.

RTX ist einen Entwicklerplattform aus Soft- und Hardware das hab ich schonmal geschrieben, inklusive den "Ends" die dafür gebraucht werden und Gameworks RTX ist Teil davon, denn irgendwie muss man Cuda dazu bringen oder ihm übersetzen, was man überhaupt von ihm will. Das geht nicht mit einem Microsoft Fingerschnips.

Bei Minecraft ging es Nvidia um die Demonstrationsmöglichkeit ein Technologiepaket wie RTX innerhalb von Pathtracing vorzustellen und du willst mir erklären, das sei nicht so? Ich kann lesen und was ich lese auch verstehen. Das Ding heißt nicht umsonst Minecraft for Windows RTX Beta, da steht nichts von DXR oder RT und Gameworks setzt wie immer als Schnittstelle oben auf (Abstractionsebenen-/level). Ich kenne keine Anwendung, wo Gamemurks AMD Hardware berücksichtig, eher ist es umgekehrt, es schließt sie eher aus.

AMD Hardware wird in den Systemanforderungen zu Minecraft nicht mal genannt. Wer sowas testet sollte ggf. vorher mal bei Microsoft nachfragen, ob das denn berücksichtig wurde. Ich glaube das kaum. Und in der Vergangenheit an Turing gemessen haben wir gelernt, dass der Entwickler selbst oder der Dev allein dafür nicht reicht.
 
Zuletzt bearbeitet von einem Moderator:
In dem Forum hier behaupten die Leute einen lieben langen Tag lang irgendwelchen FUD, erst kommt RDNA2 alias Bignavi nicht mal an eine 2080, geschweige denn 2080ti ran und nun sülzt man, wo sich das nicht bewahrheitet hat, bei der RT Performance weiter, obwohl sie den Leistungswert der RA inklusive Computepipeline selbst angeben DXR = 13,7fach bei 471BPS? (wenn man nur wüsste was das bedeutet oder) (es geht um eine räumliche Partitionierung!)?

Wenn man damit natürlich nichts anzufangen weis, ist schon klar, das man lieber irgendwas sülzt.
Handfeste Tests und Benchmarks die die bessere Hardwareleistung von Turing- und Ampere-Lösungen bei RT beweist sind also "Gesülze". Interessant, wenn irgendwas einem nicht passt, wird einfach gegen die andere Meinung geflamed.

DXR ist ein offener Standard auf den es bei entsprechender Harwarelösungen so wenig wie möglich optimiert werden muss, ist es denn Nvidia's Schuld dass sie Tensor-Kerne so einfach wie möglich designt haben, damit die Programmierer sie leicht ansprechen können (was man bei diversen Fachwebsites nachlesen kann)? Nur weil AMD nicht dasselbe kann? Natürlich,was denn sonst.

Und auch wenn es einem noch so stinkt dass geliebte Konzern in Sachen Innovation und Leistung zurückfällt, nein, eine 6800 XT kommt immer noch nicht auf dieselbe RT Lestung wie eine 2080 Super, geschweige denn 2080 Ti oder 3070. Immer noch ohne DLSS, da hilft auch die ganze Aufregung nichts.
 
Zuletzt bearbeitet:
Ich denke man muss das etwas differenzierter betrachten und nicht einfach nur Cherry-picking par excellence betreiben.
Control performt auf den neuen AMD Karten einfach nicht ganz optimal und man liegt gar >10% hinter der 2080ti zurück. In Call of Duty, Metro und SOTTR ligt man zwischen 15-25% hinter der 3080 zurück, also nicht der rede
Wert. Wo die Reise hingehen wird, sieht man ja ansatzweise bereits an Watch Dogs und da wohl sämtliche Konsolen RT Ports wohl bereits optimal auf den neuen AMD Karten laufen werden wird diese sicher nicht die Ausnahme bleiben.
Ray Tracing Performance in 6 Games (www.thefpsreview.com)
Anhang anzeigen 1343183Anhang anzeigen 1343184

Anhang anzeigen 1343185

Ach ja und 850€ für 10GB sind natürlich die viel bessere Wahl.
Für mich sehen 10GB bei einer 3080 in etwa so aus, als würde man bei einem Monstertruck 14 Zoll Felgen verwenden:lol:)

Anhang anzeigen 1343193
bei watch dogs wurde kein dlss verwendet dann steht die 6800xt einfach nur schlecht da. und igors lab behauptet sogar das nvidia viel mehr ratracing effekte berechnet in jedem game. gibt ein video auf youtube. und bei dirt 5 wird ein komplett anderes bild berechnet da gibts auch ein video dazu. amd trickst hier nur weil wenn man minecraft oder control ansieht dann sieht man die wirkliche raytracing performance
 
Handfeste Tests und Benchmarks die die bessere Hardwareleistung von Turing- und Ampere-Lösungen bei RT beweist sind also "Gesülze". Interessant, wenn irgendwas einem nicht passt, wird einfach gegen die andere Meinung geflamed.

DXR ist ein offener Standard auf den es bei entsprechender Harwarelösungen so wenig wie möglich optimiert werden muss, ist es denn Nvidia's Schuld dass sie Tensor-Kerne so einfach wie möglich designt haben, damit die Programmierer sie leicht ansprechen können (was man bei diversen Fachwebsites nachlesen kann)? Nur weil AMD nicht dasselbe kann? Natürlich,was denn sonst.

Und auch wenn es einem noch so stinkt dass geliebte Konzern in Sachen Innovation und Leistung zurückfällt, nein, eine 6800 XT kommt immer noch nicht auf dieselbe RT Lestung wie eine 2080 Super, geschweige denn 2080 Ti oder 3070. Immer noch ohne DLSS, da hilft auch die ganze Aufregung nichts.
Was hat denn Tensor mit Raytracing zu tun?

Es ist doch eher umgekehrt, der geliebte Konzern kommt in Bedrängnis, mit seinen ach so tollen aber im Kern ziemlich geschlossenen Ideen und dann gibt man in Foren Gas das das ja nicht zum Nachteil für die eigene Aktie wird, mit der man sich seinen geliebten Hersteller finanziert.

Nvidia brauchte 2 geschlagene Jahre für dieses Leistungsvermögen, das soll AMD bei einem anderem Ansatz (auch wenn beides auf DXR aufsetzt) doch bitte sofort egalisieren, das man nur im Rastern schneller ist, reicht erstmal nicht, nein sie sollen doch bitte dafür sorgen das man grün schön billig kaufen kann.

Übrigens hast du kein Wort von dem verstanden was ich schon geschrieben habe. RTX ist nicht DXR und DLSS auch nicht DirectML, letztere kommen plattformübergreifend zum Einsatz was nicht AMD zweckgebunden erfolgt, sondern für Microsoft, AMD liefert als OEM lediglich die Hardware. Es ist also derzeit eher das Konsolensegment das Technologieansätze bestimmt und warum sollte AMD die für Konsolen auf Wunsch Hardware entwickeln, dann noch Mal was grundlegend anderes machen? Das wäre doch völlig hirnrissig.

Für Entwickler hat es trotzdem Vorteile, weil das bei der Entwicklung von Spielen in gleicher Umgebung einfach leichter zu coden und portieren ist (man spart deutlich mehr Zeit und muss nicht ständig einen Engineer des Herstellers ordern, wenn Extentionen auf gleiche Hardwarelevel treffen, vor allem wenn die Komplexität in Spielen steigen soll hält man so die Verteuerung auf), man gleiche Leistung abrufen kann und nicht ständig dedizierte Ansätze berücksichtigen muss. Es geht dabei auch um Flexibilität in der Entwicklung, wobei in Hardware enge Maßstäbe setzt, das wollen die Entwickler aber gar nicht. Die wollen wenn möglich ihr Ding machen, nicht das eines Herstellers und auch nicht unter deren Kontrolle.

Tensor ist keine eigenständige Entwicklung von Nvidia und Raytracing ist es auch nicht, genauso wenig wie von AMD.

Aber klar. Nvidia darf 2 Jahre an RT umherfrickeln, zig mal die Anforderungen und Voraussetzungen umstoßen, DLSS und Denoiser anpassen, mehrfach Treiber nachschieben, Auflösungsmodi anpassen und damit das Balancing dem eigenen Hardwarelevel was Raymengen usw. betrifft. AMD darf das nicht, die haben sofort zu funktionieren, merkt ihr den Blödsinn den Ihr schreibt nicht selbst.

War Zen denn überall schneller? Wurde er nicht trotzdem gekauft und wo steht er in der Spielergunst jetzt? An der Spitze?

Übrigens kündigt sich gerade eine 6700xt an, mit 12GiB VRAM an 192bit SI und 96mb Infinitiy Cache, auwiehö 3070. RTX ist doch immer nur noch ein Gimmik (RT selbst in Spielen steckt in den Kinderschuhen, vermutlich weitere 10 Jahre), auf AMD bricht die Framerate halt um 52% ein auf Nvidia bei um 41. Spielbar ist in beiden Fällen was anderes und wer sein Bild dann mit AI Denoiser und Upscaling verschmieren will, soll das gerne machen.

Nvidia muss da wohl einen ausgewachsenen GA102 komplett teildeaktiveren (mehr als 10GiB), soviel Schrott kann man gar nicht produzieren um derzeit mit AMDs Ideen mitzuhalten.

Ich hoffe das sich der Markt dann irgendwann das Preisgefüge entsprechend entspannt, denn wie ich schon schrieb, sind Preisaufschläge versus UVP von bis zu 30% keine Option. Das passt tatsächlich nicht zu dem Stand der Entwicklung und der Leistungsfähigkeit. Da gebe ich euch gerne Recht. Wenn ihr auf dieser Basis diskutieren würdet gäbe es auch meinungsabhängig nichts an der Art und Weise zu kritisieren.
 
Zuletzt bearbeitet von einem Moderator:
Sich nach einer Woche hinzustellen und in dem Zusammenhang zu behaupten sie sind deultich langsamer ist genauso falsch. Man muss abwarten was jetzt passiert. Derzeit passen die Preise (Aufschläge) einfach nicht.

Messergebnisse sind immer nur Ausdruck des derzeitigen Umfelds (Software und Hardware), und in herstellereigenen Laboren misst man oft was anderes, als dann wenn die breite Basis eben nicht das Optimum darstellt, das man in eigenen Tests simuliert.

Derzeit ist es um so schwieriger, wenn sich die Hardware wegen der schlechten Verfügbarkeit nur langsam im Markt verbreitet und die Metriken dazu fehlen.

Das lässt letztlich nicht auf das tatsächliche Leistunsgvermögen schließen, so ist das nunmal. Nvidia erging es da nicht anders, wenn man an die Patch- und Treiberorgien denkt, angefangen bei BFV und RT. Derzeit haben sie den Vorteil das genug Anwender Datensätze liefern was Optimierungen zulässt, dass kann bei AMD genausogut funktionieren und dann haben sie noch das komplette Konsolensegment auf ihrer Seite. Nintendo ist leistungstechnisch etwas abgeschlagener, kann aber Nvidia wiederum helfen.
 
amd hat nur ein großes problem. und das ist eben das sie keine zusatz kerne haben wie nvidia die tensor kerne. damit dürfte es mit einem dlss gegner schwer werden
@manimani89 Kannst du das Video mal verlinken?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
das von igor muss das testvideo sein bin mir nicht mehr sicher
 
Zuletzt bearbeitet:
Was hat denn Tensor mit Raytracing zu tun?
Du kannst gerne selbst nachlesen, was Tensor-Cores mit Raytracing zu tun haben. Hardwareluxx hat da ein schönen Artikel geschrieben, der in die Tiefe bei der Architektur geht.

Volta-Karten haben keine RT-Cores, dafür aber Tensor-Kerne wie Turing und Ampere, und Raytracing funktioniert auf denen auch flüssig wenn auch etwas langsamer als bei Turing/Ampere (und hat funktioniert bevor es Turing-Karten überhaupt gab, und AMD nicht mal in Träumen an RT gedacht hat). Woran könnte das nur liegen.

Es ist doch eher umgekehrt, der geliebte Konzern kommt in Bedrängnis, mit seinen ach so tollen aber im Kern ziemlich geschlossenen Ideen und dann gibt man in Foren Gas das das ja nicht zum Nachteil für die eigene Aktie wird, mit der man sich seinen geliebten Hersteller finanziert.
Das sind einzig und allein deine Wunschvorstellungen. Wenn du anderen Menschen keine innovativen Produkte gönnst oder einem Hersteller der jahrzentelange Erfahrung in GPU und wissenschaftlichem Computermarkt hat sein Know-How absprichst, wird es trotzdem nicht verschwinden. Und Nvidia war mit ihrer neuen Turing-Architektur wenn man den Schlusstrich zieht, sehr erfolgreich. Und entwickelten diese mit der 3en Gen an RT weiter, während AMD da zurückfällt.

Übrigens hast du kein Wort von dem verstanden was ich schon geschrieben habe. RTX ist nicht DXR und DLSS auch nicht DirectML, letztere kommen plattformübergreifend zum Einsatz was nicht AMD zweckgebunden erfolgt, sondern für Microsoft, AMD liefert als OEM lediglich die Hardware. Es ist also derzeit eher das Konsolensegment das Technologieansätze bestimmt und warum sollte AMD die für Konsolen auf Wunsch Hardware entwickeln, dann noch Mal was grundlegend anderes machen? Das wäre doch völlig hirnrissig.
Wenn man viele schlaue Wörter nennt, soll das auch einem bestimmten Grund dienen, z.B. ein Pointe haben. Hier versuchst du von der Tatsache abzulenken, dass die AMD Lösung viel schwächer in RT Leistung ist, als Nvidia, was nun mal Fakt ist, mitsamt den Konsolen die eine RT Leistung unter einer 2060 Super/2070 liefern. Auf Cross-Gen Titel. Und anders als bei dem PC, kannst du auf den Konsolen keine Grafikeinstellungen ändern, darfst also 30 FPS mit Low-RT und low-mid Spieleinstellungen hochskaliert spielen - mit einem schlechterem und viel weniger, als auf dem PC, flüssigem Bild (hallo Tearing).


Aber klar. Nvidia darf 2 Jahre an RT umherfrickeln, zig mal die Anforderungen und Voraussetzungen umstoßen, DLSS und Denoiser anpassen, mehrfach Treiber nachschieben, Auflösungsmodi anpassen und damit das Balancing dem eigenen Hardwarelevel was Raymengen usw. betrifft. AMD darf das nicht, die haben sofort zu funktionieren, merkt ihr den Blödsinn den Ihr schreibt nicht selbst.
Jeder darf mit seinem Geld und Ressourcen alles anstellen, was man will. Und Nvidia haben ihr Angebot mit ihrer Forschung und Weiterentwicklung der Tensor- und Ki-Technologie kontinuierlich besser gemacht, somit den Usern was geboten für ihr Geld, während AMD das nicht getan hat. Das als Schuld von Nvidia hinzustellen, ist unsinnig.

Übrigens kündigt sich gerade eine 6700xt an, mit 12GiB VRAM an 192bit SI und 96mb Infinitiy Cache, auwiehö 3070. RTX ist doch immer nur noch ein Gimmik (RT selbst in Spielen steckt in den Kinderschuhen, vermutlich weitere 10 Jahre), auf AMD bricht die Framerate halt um 52% ein auf Nvidia bei um 41. Spielbar ist in beiden Fällen was anderes und wer sein Bild dann mit AI Denoiser und Upscaling verschmieren will, soll das gerne machen.

Nvidia muss da wohl einen ausgewachsenen GA102 komplett teildeaktiveren (mehr als 10GiB), soviel Schrott kann man gar nicht produzieren um derzeit mit AMDs Ideen mitzuhalten.
Wass Nvidia zurzeit machen muss oder nicht, kannst weder du oder ich wissen, und andere Produkte von einem Hersteller als Schrott zu bezeichnen, ist alles andere als konstruktiv. Ich nenne die RDNA 2 Karten kein Schrott, auch wenn sie an die Leistung von Turing in RT nicht drankommen.

Die 10 GiB - 20 GiB Marge hat was mit dem Herstellungsprozess von GDDR6x zu tun, was AMD nicht anbietet, und nicht mit Deaktivierung was du behauptest, und Nvidia verwendet auf ihren karten einen schnelleren Speicher als RDNA2, mitsamt einem schnelleren Bus.

Und auch wenn es dir anscheinend überhaupt nicht gefällt, das Nvidia führend ist und nicht die "Heilsbringer" von AMD (die genauso dein Geld wollen wie andere Hersteller), wird RT immer verbreiteter sein, und wir kriegen ständig neue RT Titel weil die Technik von immer mehr Entwicklern übernommen wird. Der nächste Triple-A Titel ist Cyberpunk, btw. Kurze Zeit nach Watch Dogs Legion release.

Btw, wenn man die Leistung der 6800 XT in RT laut Spielebenchmarks bedenkt, die unter einer 2080 Super liegt, wird die 6700 XT unter einer 2070 Super da liegen, während die 3070 sie um einiges überholen wird. Was eine realistische Schätzung der Leistung ist, abseits von Luftschlössern.

Ich hoffe das sich der Markt dann irgendwann das Preisgefüge entsprechend entspannt, denn wie ich schon schrieb, sind Preisaufschläge versus UVP von bis zu 30% keine Option. Das passt tatsächlich nicht zu dem Stand der Entwicklung und der Leistungsfähigkeit. Da gebe ich euch gerne Recht. Wenn ihr auf dieser Basis diskutieren würdet gäbe es auch meinungsabhängig nichts an der Art und Weise zu kritisieren.
Das ist etwas wo ich dir zustimmen würde, das beide Produktangebote überteuert sind, im Vergleich zu UVP, und beide Entwickler mitsamt Händlern da gut verdienen bzw. die Situation für sich auszunutzen wissen.

Und anders als du vielleicht denkst und es schon zu persönlich aufnimmst wenn ein Hersteller von den Testern und Anwendern richtig eingeschätzt wird, sind die RDNA 2 Karten ganz gut für klassische Rasterisation, aber die Entwicklung geht da jetzt neue Wege schon seit 2017. Ein zukunftsischeres Featureset und gute Leistung ist auch ein Argument für eine Kaufentscheidung, wie es für viele war, auch wenn man es nicht für die andere Seite akzeptieren will.
 
Zuletzt bearbeitet:
Zurück