News FSR 3: AMD verspricht doppelte Leistung im Vergleich zu FSR 2 durch Frame Interpolation

Tesselationsporno bei nicht sichtbaren Objekten (Crysis 2)
Das ist ein urban myth, der schon lange Zeit widerlegt wurde. Beim Solid- Rendering wurden durch das Culling der großteil der im Wireframe dargestellten Polygone vorher verworfen bzw. grundsätzlich nicht gerendert. Auch das LOD wurde ignoriert.

Dazu auch:


sondern NV das genaue Gegenteil davon.

Beide Firmen geben und nehmen sich wenig. Von shady Geschäftspraktiken über Schönen von Spezifikationen, lächerlicher Werbung mit falschen Daten, schönen von Benchmarkergebnissen, Abstrafen von Reviewern, die nicht das gewünschte Ergebnis lieferten, Nutzerfeindliches Verhalten (siehe gerade ganz neu/akltuell in diesem Thread https://extreme.pcgameshardware.de/...urch-frame-interpolation.632500/post-11265561) usw. usf.

Das, womit nvidia auf den Thron der Abwege gestiegen ist, war in meinen Augen das damalige Geforce Partner- Programm. Das hatte tatsächlich eine ganz besondere "Qualität" ;)

Dennoch- nvidia haftet halt auch so die unterstellte Arroganz des Marktführers an. Ist ein Wesenszug der Kultur, dass das in Deutschland überhaupt nicht gut ankommt. Wenn David gegen Goliath gewinnt, wird gejubelt.
In anderen Ländern wird das Gegenteil gefeiert. Da schämt man sich nicht für seinen Ferrari in der Garage.
 
Zuletzt bearbeitet:
Bin schon gespannt wie die ersten Games damit laufen und welche Karten es am Ende gut nutzen können. Sofern RDNA2 damit gut zurecht kommt, dürfe es die Konsolen wohl auch mit ins Portfolio aufnehmen. Wäre sicher eine gute Ergänzung für 40FPS Modis ohne VRR Geräten :)
 
Für rechten Eso- Schwurbel
???
Wo liest du irgendeine rechte Parole raus? Wo Esoterik?

habe ich danach 120 und das Bild ist super flüssig
Flüssig mag sein, aber ich habe festgestellt, dass eben doch eine ganze Menge an Artefakten vorhanden sind, die mich persönlich stören. Wobei ich auch sagen muss, dass mir 60fps im SP durchaus genug sind. Mir ist fast immer wichtiger vernünftige Latenzen zu haben, die kann FG aber eben nicht verbessern, sondern verschlechtert diese.

Ich bin bei FPS, input lag, ruckeln etc. sehr empfindlich und alles unter 90fps ist für mich schon quasi nicht mehr spielbar, aber FG ist in meinen Augen schwarze Magie und erspart mit den Upgrade für den neuen Unterbau & CPU dieses Jahr.
Deswegen schrieb ich ja explizit für "mich".
 
Das ist ein urban myth, der schon lange Zeit widerlegt wurde. Beim Solid- Rendering wurden durch das Culling der großteil der im Wireframe dargestellten Polygone vorher verworfen bzw. grundsätzlich nicht gerendert.
Schaust Du eigentlich auch einmal, ob die Links in Deinen verlinkten Beiträgen auch noch funktionieren? Hilft so nicht unbedingt weiter, da Du so im Prinzip nur zwei Forenbeiträge verlinkt hast, und zwar von Ende 2012 und 2016.

Wenn ich nämlich die Wahl habe diesen Posts einfach zu folgen, oder den entsprechenden Meldungen bei bzw. kurz nach Release mitsamt meinen eigenen Tests mit 2x 6970 Lightnings und 2x 470 GTX zu der Zeit, fällt mir diese sehr leicht.

Die Aussage des Nutzers des zweiten Links zu Anantech ist übrigens falsch. Es stimmt zwar, dass die Reduktion der Tesselationsstufe im AMD Treiber optisch negative Auswirkungen hatte (insbesondere an der Mauer), die Performance nahm allerdings ebenfalls zu.

Die beiden 470er haben übrigens konstant in 1080p 59 fps geliefert (Framelimit) , die beiden 6970 brachen ohne Tesselationsstufenanpassung im Treiber teilweise in den niedrigen 30er Bereich ein (gleiches Framelimit), was schlecht ist/war bei Multi GPU Setups.

Im Zweifel streich das "nicht sichtbar", ändert am Ergebnis allerdings auch nichts.
 
Schaust Du eigentlich auch einmal, ob die Links in Deinen verlinkten Beiträgen auch noch funktionieren? Hilft so nicht unbedingt weiter, da Du so im Prinzip nur zwei Forenbeiträge verlinkt hast, und zwar von Ende 2012 und 2016.
Ja- Das angebliche Crytec Tesselation- Gate ist tatsächlich so lange her.
Und Du hast recht. Inzwischen funktionieren einige Links nicht mehr.

Wohingegen aber die Stellungnahme der Devs, die diesen Mythos ins rechte Licht rückt zitiert wurde und deshalb noch erhalten sind.
Our tessellation system LODs heavily so the complaints about it being "over-tessellated" (which in itself is an oxymoron because the whole point of tessellation is to massively increase the triangle count with minimal performance impact, which is exactly what Crysis 2's DX11 implementation does) don't make sense because objects are at their highest detail when you're up close and drop tris when you're at a distance, just like any normal LOD system but with tessellation, many more triangles up close.
und
The wireframes may look overtessellated, but it's the nature of the technique. Also, wireframe mode has no culling - you can see everything behind anything in wireframe mode, including the ocean. It doesn't necessarily mean you can see these things in normal mode. I hope everyone takes this into account when they're judging tessellation in wireframe mode. :evil:
Somit sollte das geklärt sein. Zumal sie ja auch darauf verweisen, dass man zum Vergleich den Tri- Count im Wireframe Modus mal gegen den des Solid Modes stellen kann.


Die Aussage des Nutzers des zweiten Links zu Anantech ist übrigens falsch. Es stimmt zwar, dass die Reduktion der Tesselationsstufe im AMD Treiber optisch negative Auswirkungen hatte (insbesondere an der Mauer), die Performance nahm allerdings ebenfalls zu.
Der User behauptet nichts anderes. Verlinkt sogar Screens dazu. Er sagt aber "no" dazu, dass es keinen Effekt auf die visuelle Qualität gehabt hätte.

Und dass die AMD Karten damals nicht die hellsten Kerzen auf der Tesselationstorte waren, ist ja gemeinhin bekannt.

War halt auch wieder so ein Feature, welches von AMD stiefmütterlich behandelt wurde, trotz offizieller DX Implementation.
Anstatt dass man aber AMD dafür zu Rate zieht, schimpft man lieber auf die, die die Techniken nutzen wollen.
Und auf die anderen deren Hardware stark genug ist, entsprechende Effekte zu stemmen.

So wie eben aktuell RTRT, sowie temporales Supersampling, sowie Frame Generation....
Schwach die eigene mangelnde Leistung in diversen Disziplinen dann anderen in die Schuhe schieben zu wollen. Wieso sollte man auf sowas Rücksicht nehmen?
Es scheinen hier viele zu vergessen, dass Wettbewerb zwischen den großen Playern herrscht.

Es ist ja nicht so als dass AMD im Gegensatz zu nvidia nicht schon ganze Features für die Grafikkarten per vendor- lock gesperrt hätte, wie es bei Godfall der Fall war. Ein einzigartiger Fall in der Geschichte bis heute. Sowas sind userfeindliche Dick- Moves vor dem Herrn.

So lange aber mit offenem Visir gekämpft wird, ist es der Konkurrenz möglich den Mangel an eigener Leistung jederzeit beseitigen zu können (was AMD im Falle Tesselation in der Nachfolgegeneration auch gemacht hat).
So herrscht ein normaler und gesunder Wettbewerb. Wenngleich nvidia unstrittig die größeren finanziellen Mittel zur Verfügung hat. Was nicht darüber hinwegtäuschen soll, dass AMD umsatztechnisch nicht weit weg von nvidia liegt und schon öfter aus der Underdog- Rolle geschlüpft ist.

AMD hat sich dann letztendlich einfach in Sachen Annahme von Features durch Entwickler und den Markt verspekuliert.
Das ist weder das Problem von Spieleentwicklern noch das Problem von nvidia.
 
Zuletzt bearbeitet:
???
Wo liest du irgendeine rechte Parole raus? Wo Esoterik?


Flüssig mag sein, aber ich habe festgestellt, dass eben doch eine ganze Menge an Artefakten vorhanden sind, die mich persönlich stören. Wobei ich auch sagen muss, dass mir 60fps im SP durchaus genug sind. Mir ist fast immer wichtiger vernünftige Latenzen zu haben, die kann FG aber eben nicht verbessern, sondern verschlechtert diese.


Deswegen schrieb ich ja explizit für "mich".
Dann scheinen wir einfach unterschiedliche Wahrnehmungen zu haben. Bis auf das minimale zerreißen der Questmarker, sehe ich kaum Artefakte. Dünne Stromkabel, klar, aber alles kein Dealbreaker für mich.

Auf jeden Fall sollte das jeder mal getestet haben. Ich denke die Mehrheit wird FG eher positiv sehen und das flüssige Spielgefühl mitnehmen wollen.

Ich hoffe das FG in den meisten neuen Spielen implementiert wird. Für mich wie DLSS auch schon, eine super Sache.
 
dass AMD umsatztechnisch nicht weit weg von nvidia liegt und schon öfter aus der Underdog- Rolle geschlüpft ist.
Allerdings mit CPU und GPU Forschung
Ich hoffe das FG in den meisten neuen Spielen implementiert wird. Für mich wie DLSS auch schon, eine super Sache.
Dlss stand ich in Version 1 auch sehr skeptisch Gegenüber, seit 2.3 spätestens ist es aber für mich ein echter Gewinn. Bei FG warte ich nochmal ein oder zwei Gens, aktuell muss ich sowas sowieso auswärts testen. Meine 6900 wird mir noch bis zur nächsten Gen reichen. Die aktuelle Gen bietet mir fürs Geld nicht genug Mehrwert. Evtl. kann ich ja Mal FSR3 testen, glaube aber nicht so Recht dran, dass es mir etwas bringen wird, aber vielleicht wird es ja auch ohne FrameGen ein optischer Gewinn zu FSR2?
 
Der User behauptet nichts anderes. Verlinkt sogar Screens dazu. Er sagt aber "no" dazu, dass es keinen Effekt auf die visuelle Qualität gehabt hätte.

Möglich, dann konnte ich das hier am Smartphone nicht richtig nachvollziehen.

Und dass die AMD Karten damals nicht die hellsten Kerzen auf der Tesselationstorte waren, ist ja gemeinhin bekannt.

Merkwürdigerweise gab es bis auf Crysis 2 wenig Probleme damit. Mir fällt zumindest spontan kein Weiteres ein.

Die 6000er Serie hatte eher ein großes anderes Problem, nämlich das AF, welches der alten 7000er Serie von NV fast schon Konkurrenz machte.

Nvidia hat es schon frühzeitig (vermutlich als erster Hersteller überhaupt) verstanden, den Markt zu den eigenen Gunsten agressiv zu manipulieren, daher auch jetzt die Technologieführerschaft und auch mit das schlechte Image.

War halt auch wieder so ein Feature, welches von AMD stiefmütterlich behandelt wurde, trotz DX Implementation.

Bereits bei Tahiti, also den 7000ern eine Gen später war das Thema weitestgehend vom Tisch. Das lag meines Erachtens allerdings eher an der Software. Crysis 2 war schließlich durch.

So wie RTRT, sowie temporales Supersampling, sowie Frame Generation....

Geschickt, aber ich empfehle Dir einmal einen Blick ins Steam Hardware Survey, das erdet ungemein. Wenn all das von Dir genannte in dieser Preisklasse sinnvoll nutzbar ankommt, klappts auch mit der Akzeptanz.

Wir sehen uns also in ca. sechs bis zehn Jahren. Bis dahin geht alles NV Proprietäre zu diesen Themen vermutlich den üblichen Weg, zumindest solange es noch andere Hersteller gibt.

Schwach die eigene mangelnde Leistung in diversen Disziplinen dann anderen in die Schuhe schieben zu wollen.
Wieso sollte man auf sowas Rücksicht nehmen?

Sorry, wovon sprichst Du? Wer schiebt wem was jetzt genau in die Schuhe? Das ist mir jetzt zu Wischiwaschi.

Eine Leistung wäre es RT auf den Bildschirm zu bringen, ohne den ganzen Murks drumherum und vor allem ohne das der Verbraucher über eine Dekade Tippelschritte zu Luxuspreisen zur Kasse gebeten wird. Hausaufgaben machen nannte man so etwas früher.

Das was hier seit Turing herstellerübergreifend dazu geboten wird, ist in meinen Augen keine Leistung, sondern eher Ausdruck von Hilflosigkeit (aus rein technischer Sicht). Aus Unternehmersicht also eine lukrative Hilflosigkeit, aber wohl ganz sicher keine Leistung.

Wollen, aber nicht wirklich können, die Beta-Zeche zahlt der Verbraucher.

Es ist ja nicht so als dass von nvidia im Gegensatz zu AMD nicht ganze Features für die Grafikkarten gesperrt hätte, wie es bei Godfall der Fall war.

So ist das halt mit dem Karma. Sicherlich nicht fein, aber mein Mitleid hält sich arg in Grenzen. Irgenwann lernt es auch der dümmste Konkurrent.
 
Eine Leistung wäre es RT auf den Bildschirm zu bringen, ohne den ganzen Murks drumherum und vor allem ohne das der Verbraucher über eine Dekade Tippelschritte zu Luxuspreisen zur Kasse gebeten wird. Hausaufgaben machen nannte man so etwas früher.
Das kann man sicherlich alles wünschen. Auch kann man sich wünschen, dass man mit weniger hohen finanziellen Mitteln gegen die Physik in Sachen Miniaturisierung anentwickeln kann, so dass die Preise auch für die ersten Revisionen in der Herstellung wieder fallen können. Der Jubel wäre auch bei mir sehr groß.

Nur darf man halt einfach nicht die Augen vor der Realität verschließen:
1679779882470.png

Zitat:
Even at 7nm, the design cost has tripled. But moving from 7nm to 3nm would mean increasing costs by a further factor of 5x.

Das war übrigens vor Corona und Krieg, die die Lage im Halbleiterbereich auch in der Versorgung akut verschärft haben.
 
Weil du anscheinend denkst, AMD habe diese Features im Verborgenen entwickelt, ohne die Presse darüber zu informieren und ohne entsprechende Produkte und Lösungen zu präsentieren.

Dafür gibt es keinen Grund zur Annahme. Weder für Raytracing, für einen DLSS Konkurrenten, noch für Frame Generation.

Eine reine Behauptung ist es, AMD würde diese Features ohne die Entwicklungen und Druck seittens Nvidia zur Marktreife führen. Es war nichts dementsprechendes geplant.
Das ist nichts mehr als "hätte Fahrradkette" und eine romantische Ausflucht, AMD eine vergleichbare Rolle bei der Entwicklung der letzten bleeding-edge Technologien angedeihen zu lassen.
Hätte ich bei meinem Studium und PhD so "argumentiert" wie du hier, hätte mein Prof wohl einen Schlaganfall erlitten :ugly:. Raytracing, Upsampling und Fg Technologien gab es schon viele Jahre bevor nVidia mit der eigenen Entwicklung angefangen hat. Die Behauptung war ursprünglich, dass es Jene ohne nVidia nie gegeben hätte. Vollkommen falsche Annahme!
Es ist auch vollkommen abwegig, dass AMD nicht parallel entwickelt hat.
Auch hier stelle ich immer wieder fest, dass 99,9% im Forum keinen Background im Bereich Wissenschaft und/oder Ingenieurs Berufen haben und auch nicht arbeiten.
Ich würde als Abteilungsleiter einen Teufel "tun", die eigenen Entwicklungen auf einer Marketingfolie öffentlich zu machen, ohne dass jene wirklich intern in einer Validierungsphase stecken. Alles andere wäre auch komplett Geschäftsschädigend!
Was auf Marketingfolien gezeigt wird, ist intern abgesegnet, und zwar auf allen Ebenen. -> RFATS sozusagen.
 
Eine OT: Frage: man findet dich hoffentlich auch auf der CB weiterhin?
Redaktionell bin ich mittlerweile für PCGH tätig und bei CB aus der Redaktion ausgeschieden.

Selbstverständlich bin ich hier wie dort nach wie vor in den Foren unterwegs, das halte ich ja seit Jahren so.

News, Berichte und Specials von mir wirst du aber zukünftig hier finden. Zudem wird das Forum hier meine erste Anlaufstelle.

Da ich gerne im Nachgang zu meinen Meldungen noch Fragen beantworte, bietet sich das ganz einfach auch an.

Ich kann mich ja nicht vierteilen. ^^
 
@PCGH_Sven

Falls du dich erinnern solltest, alle 30 Tage gibt es ein automatisiertes "cleaning" im Discord.
Manuel hat sich schon gefragt wann du uns mal wieder beehren willst.. :D
(aktuell alle offline, außer mir)

PS: Sorry for OT

MFG
Holger
 
Hey Holger, schön von dir zu hören.

Grüß mir Manuel ganz lieb und sag ihm, ich schaue nächstes Wochenende mal rein.

Es soll mir mal bitte auf Signal schreiben. Hatte ihm meine neue Nummer geschickt, aber nichts von ihm gehört.

Grüß mir die RAM OCler. :)

Liebe Grüße Sven
 
Und? Irgendjemand musste es bringen und Nvidia hats getan. AMD zieht, mal wieder, nur nach und die Fangemeinde feierts, aber verurteilt Nvidia.
Die Argumente für AMD Grafikkarten sind sehr mager, bestätigt auch deren Marktanteile.
Nur Features kopieren vom großen Konkurrent und das meistens eine Ecke schlechter wird AMD keine weiteren Marktanteile mehr bescheren. Die dürfen sich bald ebenfalls mit Intel bei Grafikkarten um Marktanteile prügeln. AMD ist auf dem besten Weg.
 
Es ist auch vollkommen abwegig, dass AMD nicht parallel entwickelt hat.
Kommt drauf an von welcher Technologie wir reden. Echtzeit Raytracing war absehbar und wurde ja auch gemeinsam mit MS und NV in einen Standard gegossen. Natürlich war man da auch am Entwickeln.
Aber wenn man sich die zeitlichen Abläufe bei Upsampling und Framegeneration ansieht scheint es schon sehr wahrscheinlich dass AMD dort erst jeweils mit dem Release der entsprechenden DLSS Version die eigene Entwicklung angeschoben hat. Insbesondere die fixe Ankündigung eines FSR3 dass dann ewig nicht kommt klingt mehr nach Kurzschlussreaktion als vorheriger Planung.
 
Nö, aber darum ging es auch nie.
Es geht darum, dass Nvidia und deren Features dauernd gehatet und AMD als der heilige Samariter dargestellt werden.
Nvidia bringt DLSS und seit Version 1 wird das Feature noch bis heute von einigen kritisch betrachtet. Frame Generation wird dauernd in ein schlechtes Licht gerückt, obwohl die meisten Kritiker es noch nie selbst gesehen haben oder überhaupt die HW besitzen um es nutzen zu können.
Jetzt kommt AMD um die Ecke, bringt FSR3 und es wird mal wieder durchweg gefeiert. Keine einzige kritische Stimme.
So ein Quatsch! Ist dein Name Pipi Langstrumpf? Bis hier sind es in diesem thread knapp 50 Beiträge. Davon äußern sich ganze zwei positiv zu FSR 3 und zwei negativ gegenüber DLSS FG. Wo genau siehst du das was du da behauptest?! Was soll so ein Unsinn?

Ich mag beispielsweise DLSS FG nicht, aber halte aus genau diesem Grund auch nichts von FSR3. Warum auch? Letztlich bekommt man mehr fps im Tausch gegen Bildqualität (wenn auch geringfügig). Warum sollte ich das gut finden? Ich warte lieber damit ein Spiel zu spielen, weil ich einfach wenig Zeit zum spielen finde/nehme. Dann will ich es möglichst störungsfrei spielen. Also keine Artefakte, kein Schlieren usw. Das sind Dinge die durch Interpolation und Skalierung noch verstärkt werden. Warum darf man das deiner Auffassung nach nur begrüßen? Kann man für sich selbst nicht derartiges als störend ablehnen und das gegenüber dennoch damit glücklich werden?
Hier war bis zu diesem Post niemand der gesagt hätte andere als sie selbst sollten DLSS meiden. Kein einziger AMD Fan wollte es der Konkurrenz ausreden. Dennoch kommst du mit so einem Post. Guck mal am Anfang des Threads, wer hier an welcher Stelle das erste mal Stunk verbreitet...

Wie gesagt, ich mag die Techniken beider Hersteller nicht, was das betrifft. Was bringt mir zu 95 Prozent mehr fps wenn ich ab und an genau dadurch Bildstörungen sehe die mich aus dem Spiel reißen und mir dadurch das Erlebnis versauen?
Denke ich beispielsweise an das Video wo die Mannschaft in Plaque Tale FG erkennen sollte... Einmal diese Artefakte auf dem Bildschirm, wäre für den Moment bei mir der Zug abgefahren und das Spiel aus.
 
Gefeiert werden neue (Grafik)technologien, die auf allen Plattformen laufen. Gehatet wir proprietärer oder lizenzpflichtiger Mist der nur auf Geräten eines Herstellers läuft und dann später eh wieder fallen gelassen wird.

Welche Farbe dieser Konzern hat, ist mit dabei Sch***egal. Manche hier wollen das Problem einfach nicht verstehen.
 
Wenn fsr 3 wirklich auf alten Systemen läuft wäre das echt super und würde die lebenszeit meiner 1080 ti nochmal verlängern dank Amd. Fsr2 läuft ja schon beim witcher3 super damit.
 
Zuletzt bearbeitet:
Zurück