• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Fidelity FX Super Resolution: Zweifel an Bildqualität durch Trailer-Analyse

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Fidelity FX Super Resolution: Zweifel an Bildqualität durch Trailer-Analyse

Ein Reddit-Nutzer hat den Trailer zu AMDs DLSS-Konkurrenten Fidelity FX Super Resolution in höchstmöglicher Qualität heruntergeladen und einzelne Ausschnitte vergrößert. Nach Analyse der Aufnahmen äußert er Zweifel an der Bildqualität von FSR.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Fidelity FX Super Resolution: Zweifel an Bildqualität durch Trailer-Analyse
 

manimani89

BIOS-Overclocker(in)
wow die bilder sind eine katastrophe da ists besser man stellt gleich nativ die auflösung runter

so extremst wars nichtmal bei dlss 1.0 aber auch irgerndwie klar wenn amd es mit so einer einfachen lösung versucht und nvidia sehr viel geld ausgibt um das so toll hinzubekommen
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
"Für eine Version 1.0, analog zum damals noch eher umstrittenen DLSS 1.0, falle das Ergebnis gar nicht schlecht aus. Version 2.0 könnte es dann wie bei Nvidia richten."

Der Meinung bin ich ebenso. Damit ist doch eigentlich schon alles gesagt.

MfG Föhn.
Absolut. Allerdings muss sich AMD den Vergleich in der Gegenwart gefallen lassen, schließlich geht es um Kaufentscheidungen. Selbstverständlich sehen wir uns FSR sehr genau an, sobald das live geht. =)

MfG
Raff
 

Neotax

Komplett-PC-Aufrüster(in)
denke mit RIS kann man es auf jedenfalls wieder verbessern. RIS kostet ja nicht wirklich viel fps vielleicht 1-3.
 

Celinna

Komplett-PC-Aufrüster(in)
ja das denke ich auch nvidia hat mit DLSS 2.0 einen Schärfefilter ins Bild eingebaut, dies scheint bei AMD noch nicht der Fall zu sein, sollten sie definitiv auch machen.
 

PCTom

BIOS-Overclocker(in)
Ich seh schon wie tausende Bilder hochgeladen werden wenn FSR am Start ist, die Schützengräben werden bei den Fraktionen schon ausgegraben.
Ich werd ab den 22.06 Holzkeulen verkaufen. Rot-schwarze Käule mit Radeon Schriftzug und FSR-Logo für 600 Euro. Grüne Holzkeule mit NV Schriftzug, DLSS-Logo und PhysX-Logo für 3000 Euro. Exklusivität kostet halt ;).
 

Pu244

Lötkolbengott/-göttin
Momentan ist es sowieso müßig, das ganze zu vergleichen, da es einerseits kein unabhängiges Material gibt und andererseits vom wichtigen Performance Modus wenig zu sehen war.

Man wird sehen müssen, wie gut AND da in der Praxis mithalten kann.

wow die bilder sind eine katastrophe da ists besser man stellt gleich nativ die auflösung runter

Bei 1080p wird es bei mir sehr pixelig und bei 720p kann ich den einzelnen Pixeln Namen geben. Wenn die Lösung von AMD zumindest dagegen hilft, wäre viel gewonnen. Wer einen kleinen Monitor hat, der kann da natürlich weiter runtergehen.
 

Stormado

Freizeitschrauber(in)
Ich seh schon wie tausende Bilder hochgeladen werden wenn FSR am Start ist, die Schützengräben werden bei den Fraktionen schon ausgegraben.
Ich werd ab den 22.06 Holzkeulen verkaufen. Rot-schwarze Käule mit Radeon Schriftzug und FSR-Logo für 600 Euro. Grüne Holzkeule mit NV Schriftzug, DLSS-Logo und PhysX-Logo für 3000 Euro. Exklusivität kostet halt ;).
Würde gerne in dein Start-Up investieren. Das scheint mir eine gute Investition in die Zukunft zu sein! Wohin darf ich mein Geld hinüberweisen?

Übrigens sollten wir uns überlegen, ob wir nicht noch für die neutralen zwischen den Fronten Popcorn verkaufen. Das würde sich mit Sicherheit lohnen!
 

Nuallan

PCGH-Community-Veteran(in)
Man kann noch nicht viel sagen bei den Schnipseln die AMD veröffentlicht hat, wobei das an sich natürlich auch schon was aussagt wenn man nix handfestes zeigen will was man vergleichen kann..

Bis jetzt sieht es für mich auf jeden Fall schlimmer aus als erwartet, und schlechter als DLSS 1.0 von 2018.
 

DasUnding

Komplett-PC-Aufrüster(in)
Naja die Kompressionsartefakte sind ja links wie rechts. Die rechte Seite sieht für mich offensichtlich deutlich schlechter aus. Mal hoffen, dass das noch besser wird.
 

manimani89

BIOS-Overclocker(in)
Momentan ist es sowieso müßig, das ganze zu vergleichen, da es einerseits kein unabhängiges Material gibt und andererseits vom wichtigen Performance Modus wenig zu sehen war.

Man wird sehen müssen, wie gut AND da in der Praxis mithalten kann.



Bei 1080p wird es bei mir sehr pixelig und bei 720p kann ich den einzelnen Pixeln Namen geben. Wenn die Lösung von AMD zumindest dagegen hilft, wäre viel gewonnen. Wer einen kleinen Monitor hat, der kann da natürlich weiter runtergehen.
bei 1080p setzt man normalerweise auch kein dlss ein erst ab 1440p und high quality hat es einen großen nutzen, also 720p ist unmöglich mit dlss 1080p geht gerade noch je nach game
 

czk666

Freizeitschrauber(in)
Wieso ist boost eigentlich kein Thema mehr? Den Ansatz finde ich eigentlich auch vielsprechend. Sollte Standard sein bei allen Spielen.
 

Pu244

Lötkolbengott/-göttin
bei 1080p setzt man normalerweise auch kein dlss ein erst ab 1440p und high quality hat es einen großen nutzen, also 720p ist unmöglich mit dlss 1080p geht gerade noch je nach game

Erstmal das Video ansehen, bitte in 4K60 (notfalls runterladen), dann wirst du hoffentlich sehen, dass es noch andere Zwecke gibt.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Bei 1440p habe ich keine Probleme, da brauche ich das nicht unbedingt, 1080p auf 4K aufzublasen ist jedoch eine super Anwendung und bei 720p auf 4K wird es dann endgültig genial.

EDIT: jetzt ist das Video drin
 
Zuletzt bearbeitet:

KasenShlogga

PC-Selbstbauer(in)
Ihm seien lediglich Vergleichsbilder mit DLSS 2.0 bekannt und da seien ihm nicht so große Unterschiede ins Auge gestochen.
Dann muss man den Reddit-Typen auch nicht ernstnehmen.

Fakt ist, DLSS 2.0 ist ein absoluter Gamechanger. Man bekommt quasi Antialiasing umsonst + hochgerechnete Bilddetails die mit nativer Auflösung auf einer Stufe sind oder sie teilweise sogar übertreffen. Beim hochrechnen von feinen Details in der Ferne und bei starken Kontrastunterschieden (Ghosting) hat DLSS noch Probleme, das wird aber mit jeder Iteration besser werden, denke ich.
 

mihi83

PC-Selbstbauer(in)
Man muss bedenken dass diese Screens und das Video aus einer AMD Präsi kommen. Also die sollten ihr "Produkt" schon von der besten Seite präsentieren.
Wenn das dass beste ist was FSR zu bieten hat sehe ich (im ersten Wurf) schwarz gegen DLSS
 

migg

Komplett-PC-Käufer(in)
Erst einmal abwarten wenn die Test´s raus sind , dann wird man ja sehen ob es ein schnellschuss ist auf den mann lieber verzichtet oder ob es dem entspricht worauf die Gamerwelt wartet. Im moment sind die Preise eh abnorm und so viele Spiele gibts mit der Unterstützung auch noch nicht.
 

OSche

PC-Selbstbauer(in)
Erstmal das Video ansehen, bitte in 4K60 (notfalls runterladen), dann wirst du hoffentlich sehen, dass es noch andere Zwecke gibt.

Bei 1440p habe ich keine Probleme, da brauche ich das nicht unbedingt, 1080p auf 4K aufzublasen ist jedoch eine super Anwendung und bei 720p auf 4K wird es dann endgültig genial.

EDIT: jetzt ist das Video drin
Tut mir Leid, aber 720p auf 4K ist technisch beeindruckend, qualitativ aber Grotte.
Das kann nicht dein Ernst sein das als use-case auszugeben.

Generell hatte dein Vorposter schon Recht.
DLSS macht mit 1440p -> 4K oder 1080p -> 1440p mehr Sinn.

Beides am Laptop mit der 2060 schon genutzt und je nach Spiel mehr oder weniger zufrieden, aber Zaubern kann Nvidia dann leider doch nicht.
Auf Videos kommt der Unterschied zu nativer Auflösung nicht so raus, aber vor'm Monitor könnten wahrscheinlich 9/10 Personen den Unterschied zwischen DLSS on/off erkennen.

Nicht dass es nicht trotzdem beeindruckend ist, vor allem da die 2060 Max-Q jetzt nicht das schnellste Pferd im Stall ist und es trotzdem zoggn am TV erlaubt.
 

Herr_Bert

Pixelschubser
Absolut. Allerdings muss sich AMD den Vergleich in der Gegenwart gefallen lassen, schließlich geht es um Kaufentscheidungen. Selbstverständlich sehen wir uns FSR sehr genau an, sobald das live geht. =)

MfG
Raff
Das wird ein spannender Vergleichs-Test mit DLSS :daumen:Als Nvidia-Nutzer kann man dann mit großer Wahrscheinlichkeit Ingame direkt FSR mit DLSS vergleichen und entscheiden, was einem mehr zusagt. Find es auch von AMD einfach absolut vorbildlich und lobenswert, dass sie sogar die Pascal-Karten noch mit ins Boot holen und so viele GPUs bzw. APUs mit FSR unterstützen. Dann kann meine Freundin mit meiner ausrangierten 1080 Ti auch noch ne Weile flüssig in FullHD spielen :)

ja das denke ich auch nvidia hat mit DLSS 2.0 einen Schärfefilter ins Bild eingebaut, dies scheint bei AMD noch nicht der Fall zu sein, sollten sie definitiv auch machen.
Richtig und wem das noch nicht scharf genug ist, der schärft über den Treiber nach.

Fakt ist, DLSS 2.0 ist ein absoluter Gamechanger. Man bekommt quasi Antialiasing umsonst + hochgerechnete Bilddetails die mit nativer Auflösung auf einer Stufe sind oder sie teilweise sogar übertreffen. Beim hochrechnen von feinen Details in der Ferne und bei starken Kontrastunterschieden (Ghosting) hat DLSS noch Probleme, das wird aber mit jeder Iteration besser werden, denke ich.
Sehe ich auch so und ich hoffe FSR wird da auch an die Qualität von DLSS 2.0 ran kommen. Bei CP 2077 sehe ich schon einen leichten Qualitätsverlust aber dafür gibt's Kantenglättung umsonst und schärfe ich über den Treiber leicht nach. Bei MEE sah das Qualitäts-Setting besser aus als nativ und das ohne Ghosting.
 

4thVariety

Software-Overclocker(in)
Ob man den Unterschied zwischen "Brei" und "nicht Brei" auch noch erkennt, wenn...

... man nicht die 16-fach Vergrößerungslupe anlegt. (Beispiel hat 4x Vergrößerung in X und Y Dimension)
... das Bild sich anfängt zu bewegen.
... man einen Monitor mit "nur" 1ms hat

Auch bei DLSS gilt immer: gut genug muss nicht perfekt sein. Man macht es ja für die fps und wenn man da toleranter wäre, hätte man ja auch wieder die Bildschärfe.

Und außerdem, Godfall in Ultra4k und 50fps. Die meisten von uns würden eher fragen: Wo kann ich so eine Grafikkarte überhaupt kaufen, das Ding nehme ich auch ohne 78fps in Godfall 4k Ultra. Gefolgt von: Guten Tag, ich möchte ein Spiel zurückgeben: Godfall. Ach ihr nehmt das nicht zurück? 1 Monat Burning Crusade auf Kulanz? Ok, irgendwas muss man ja auf der neuen Grafikkarte zocken.
 

rumpeLson

Komplett-PC-Aufrüster(in)
Man muss bedenken dass diese Screens und das Video aus einer AMD Präsi kommen. Also die sollten ihr "Produkt" schon von der besten Seite präsentieren.
Wenn das dass beste ist was FSR zu bieten hat sehe ich (im ersten Wurf) schwarz gegen DLSS
Naja im Worst case nutzt man es halt nicht. Wir haben ja nichts zu verlieren.
Der für FSR relevante Gradmesser ist insbesondere das aktuelle Upscaling auf den Konsolen. Wenn FSR hier besser ist, wird es sich durchsetzen und kann dann sicher auch am PC gewisse Relevanz haben.
Ansonsten hat man sicher nicht ohne Grund einen wirklichen Bildvergleich eben NICHT gezeigt. Vielleicht ist die Implementierung in Godfall auch noch WIP, sodass die finale Performance aber noch nicht die finale Bildqualität bekannt ist. Ich bin erstmal neugierig und unvoreingenommen.
 

gerX7a

BIOS-Overclocker(in)
"Für eine Version 1.0, analog zum damals noch eher umstrittenen DLSS 1.0, falle das Ergebnis gar nicht schlecht aus. Version 2.0 könnte es dann wie bei Nvidia richten."

Der Meinung bin ich ebenso. Damit ist doch eigentlich schon alles gesagt.

MfG Föhn.
Grundsätzlich muss man erst mal abwarten, was in einer konkreten Implementation abgeliefert werden wird. Das Video ist sicherlich keine zuverlässige Vergleichsquelle, auch wenn hier jetzt so mancher aufgrund mangelnder Geduld vorschnell etwas ableiten möchte.

Darüber hinaus gilt aber grundsätzlich das Bessere ist des Guten Feind und wenn der erste Wurf hier nur DLSS 1.0-Niveau abliefern würde, wäre das sicherlich schon enttäuschend ... ein technischer Stand, den der Hauptkonkurrent vor fast drei Jahren implementierte.
Und dass hier dann zeitnah Abhilfe geschaffen wird, erscheint nicht unbedingt wahrscheinlich, da man ansonsten einfach noch zwei oder drei Monate mit dem Release hätte warten können, um dann mit dem sprichtwortlichen Knall aufzuwarten.
Zudem kommt darüber hinaus noch hinzu, dass auch nVidia sicherlich sein DLSS 2.1 weiter verbessern wird und im worst case wartet man dort nur, bis man von AMD was zum "Zerpflücken" vorgelegt bekommen hat um dann im simpelsten Fall möglicherweise die Überlegenheit der eigenen Bestandstechnik herauszustreichen oder im worst case gar eine erneut weiterentwickelte Version vorlegen zu können, denn absehbar wird es auch mal ein DLSS 2.5 oder gar 3.0 geben, denn nVidia hat nach aktuellem Stand keinen Grund diese Technik einzumotten.

Schlussendlich könnte FSR aber selbst mit deutlich schlechterer Qualität für zumindest einige Gamer einen Mehrwert bieten, denen FPS wichtiger als Qualität ist, denn nVidia behält seine Technik derzeit den RTX-Karten vor.
Einfach mal abwarten bis echte Vergleichsmöglichkeiten gegeben sind ... wobei, wie gesagt, vermutlich schwierig, da ich davon ausgehe, dass es in nächster Zeit keinen Titel geben wird, der beide Techniken implementiert haben wird.
 

Gurdi

Kokü-Junkie (m/w)
ja das denke ich auch nvidia hat mit DLSS 2.0 einen Schärfefilter ins Bild eingebaut, dies scheint bei AMD noch nicht der Fall zu sein, sollten sie definitiv auch machen.
Hast du automatisch über den Treiber bei AMD und kannst du dir dann selbst einstellen.
Momentan ist es sowieso müßig, das ganze zu vergleichen, da es einerseits kein unabhängiges Material gibt und andererseits vom wichtigen Performance Modus wenig zu sehen war.
Sehe ich auch so, die aktuellen Vergleiche sind eher Vodoo als nützlich. Man muss sich aber fragen warum AMD kein vergleichbares Material zur Verfügung gestellt hat und nun so Reddit pseudo Experten auftauchen...
 

Mitchpuken

Software-Overclocker(in)
Soll jetzt kein AMD Verteidigung sein. Aber was soll AMD auch anders machen? Ist doch die selbe Technik, dass die ihren Einstieg nicht mit DLLS 3.0 feiern, sowas darf keiner erwarten. DLSS 1.0 war doch auch nicht so toll.

Für mich sieht die Technik so gut wie immer verwaschen aus. Ich merk das bei den Vergleichsbildern sehr gut, weil mir irgendwie komisch wird, ka wie ich das beschreiben soll xD

Wichtiger ist doch, ob man es während dem Spielen merkt. Den vergrößerten Standbilder konnte ich noch nie was abgewinnen :rollen:
 

Murat_Demir

Schraubenverwechsler(in)
Ich verstehe gar nicht warum irgendeiner überhaupt etwas vergleichbares wie DLSS erwartet??
Ohne Tensor Kerne wird da nichts besseres kommen, ich bin mir sicher das die Analyse ziemlich genau das wiedergibt was mit der Rx 6000 Serie möglich ist, etwas anders wird es erst mit der Rx 7000 Serie aussehen.
Ich denke die Leute blenden einfach aus dass die Rx 6000 bei weitem den Preis nicht wert sind, liegen preislich immer knapp über dem direkten Kontrahenten.
Keine Tensor ähnlichen Kerne, sehr niedrige und belanglose Rtx Leistung, zuviel Speicher für die gebotene Leistung, kein vernünftiger Videoencoder, hoher Stromverbrauch.
Im direkten vergleich gegen Nvidia haben die Karten keine Chance. Die dürften in dem Zustand nicht mal das selbe wie die direkten Kontrahenten kosten.
Selbst bei Nvidia ist mir der Leistungseinbruch zu groß um wirklich Rtx als Kaufgrund zu sehen.
Der Grund warum die leergekauft werden weil Amd eben nur in einem Bruchteil davon liefern kann wozu Nvidia in der Lage ist, sonst würden die Karten kaum gehen.
Für mich selbst würde höchstens eine Rtx 3060 Ti in Frage kommen weil sie eben auch Powerbudget das aufnimmt was ich bereit wäre dafür aufzubringen, eine höhere Leistungsaufnahme ist für mich nicht duldbar, alle gehen in eine Richtung nur Grafikkarten erfinden das Rad neu=).
Wären die Pandemie/ Mining -Folgen nicht würden diese Punkte den Leuten einfach viel mehr ins Auge stechen aber wie gesagt sie blenden es aus.
 

Frittenkalle

Software-Overclocker(in)
Sieht aus wie dlss 0,5 , echt ********************* da ist noch viel arbeit für amd, man sollte nich den 3 jahre vorsprung von nv vergessen, wobei ich persönlich nicht glaube das es jemals zu dlss rankommen wird
 

Pu244

Lötkolbengott/-göttin
Tut mir Leid, aber 720p auf 4K ist technisch beeindruckend, qualitativ aber Grotte.
Das kann nicht dein Ernst sein das als use-case auszugeben.

Ich finde das ganze sieht noch relativ gut aus. Ich würde mir da definitiv keine neue Graka kaufen, wenn ein Spiel auftaucht, dass nur so läuft. Bei 720p ist das eine andere Sache, das kann ich dann nicht vernünftig zocken, auch 1080p sind schon sehr problematisch.

Definitiv eine gute Möglichkeit um den Grakakauf nochmal etwas hinauszuschieben. Die andere Alternative lautet GeForce Now.

Man muss sich aber fragen warum AMD kein vergleichbares Material zur Verfügung gestellt hat und nun so Reddit pseudo Experten auftauchen...

Es ist ja nur die Vorstellung. Man danke an das Material zurück, das Nvidia ursprünglich (2018) für DLSS geliefert hat. Da hat sich eigentlich keinem erschlossen, was das sein soll.

Ohne Tensor Kerne wird da nichts besseres kommen, (...)

Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
 

AfFelix

Freizeitschrauber(in)
Ich verstehe gar nicht warum irgendeiner überhaupt etwas vergleichbares wie DLSS erwartet??
Ohne Tensor Kerne wird da nichts besseres kommen, ich bin mir sicher das die Analyse ziemlich genau das wiedergibt was mit der Rx 6000 Serie möglich ist, etwas anders wird es erst mit der Rx 7000 Serie aussehen.

Ich denke die Leute blenden einfach aus dass die Rx 6000 bei weitem den Preis nicht wert sind, liegen preislich immer knapp über dem direkten Kontrahenten.

Also ich liebe ja Kommentare, welche nur so vor Unfug strotzen. :ugly:

Mhm ja 629€ für die RX 6800XT liegt auf jeden Fall über 719€ für die RTX 3080.
Mit Worten wie immer wäre ich sehr vorsichtig, gerade in dem Forum wo alles auf die Goldwage gelegt wird. :D

Keine Tensor ähnlichen Kerne, sehr niedrige und belanglose Rtx Leistung,
Also ich bin auch nicht zufrieden mit der RT Leistung.
Bei Nvidia liegt sie ja nun bei ~70% bei AMD bei ~50% ggü der Normal Leistung.
Alles unter 85% ist schlecht mMn.

Die 35% unterschied zwischen AMD und Nvidia sind enorm viel, keine Frage.
Zum Vergleich: Ich find nicht das die 3060ti ggü der 3080 eine Belanglose Karte ist ;)
zuviel Speicher für die gebotene Leistung,

In Battlefield braucht man mit Raytracing in 4k 11GB VRAM, sonst werden Texturen nachgeladen, sieht man kaum bis gar nicht. Das wird bei BF6 bestimmt nicht weniger.... Für spielbare Framerates reicht allerdings ne RTX 3080 die aber wieder nur 10GB hat.

kein vernünftiger Videoencoder,
Also ich hab mit meinem Kumpel, der ne 3060ti hat, mal H265 und H264 verglichen, wir konnten keinen merkbaren Unterschied feststellen.
Eine Erkenntnis hat sich wieder bestätigt: Gegen vernüftiges CPU Encoding ist GPU Encoding einfach nur Schmutz egal ob AMD oder Nvidia.

Du kannst mir gern ein vernüftiges und aktuelles Video verlinken was deine Aussage untermauert.
Hab vor paar Monaten mal geschaut und nichts aktuelles Gescheites gefunden.
GamerNexus hatte ein altes Review und hat auch dort keine Unterschiede feststellen können.
hoher Stromverbrauch.

Ja, leider ist der bei Nvidia nochmal ne ganze Ecke höher ( Ausnahme Doppelmonitor Setup, da stinkt AMD ,warum auch immer, ab)

Im direkten vergleich gegen Nvidia haben die Karten keine Chance. Die dürften in dem Zustand nicht mal das selbe wie die direkten Kontrahenten kosten.
Selbst bei Nvidia ist mir der Leistungseinbruch zu groß um wirklich Rtx als Kaufgrund zu sehen.
Der Grund warum die leergekauft werden weil Amd eben nur in einem Bruchteil davon liefern kann wozu Nvidia in der Lage ist, sonst würden die Karten kaum gehen.
Für mich selbst würde höchstens eine Rtx 3060 Ti in Frage kommen weil sie eben auch Powerbudget das aufnimmt was ich bereit wäre dafür aufzubringen, eine höhere Leistungsaufnahme ist für mich nicht duldbar, alle gehen in eine Richtung nur Grafikkarten erfinden das Rad neu=).
Kann die MSI Trio X 3060ti empfehlen, gibts vllt iwann bei Mediamarkt wieder für 470€ :)
Wären die Pandemie/ Mining -Folgen nicht würden diese Punkte den Leuten einfach viel mehr ins Auge stechen aber wie gesagt sie blenden es aus.
Ausblenden gabs bei Fanboys schon immer :ka:

On Topic:

Ich verspreche mir von DLSS und FXSR eine vernüftige Auflösungsskalierung. Mehr nicht.
Was mich an DLSS nervt:
Das Bild lädt sichtbar nach. Der Erste Frame ist Unscharf, der zweite schön Scharf.

Solange das nicht weg ist, ist es für mich kein Kaufargument.
Genauso falls das bei FXSR auch der Fall ist.

NATIV :hail:
 

JoshuaOD

Komplett-PC-Aufrüster(in)
War nur eine Frage der Zeit bis der erste das nörgeln anfängt...........MähMäh, Mimimi......Ich bin Fanboy von XYZ und ich muss immer Meckern wenn der "Gegner" mal was bringt was "MEIN VEREIN" schon hat, könnte ja besser sein.
Noch hat man keine handfesten Tests, hat es noch nicht wirklich selber ausprobiert und will schon dazu was sagen, auf Grund eines Videos?!?!! Nee, jetzt wirklich? Oder?

Verdammt jetzt mach ich auch schon Mimimi...... :lol:
 
Zuletzt bearbeitet:

Sortegon

PC-Selbstbauer(in)
Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
Was wollen immer alle mit ihrer Zwangskopplung von dlss und Tensorcores?
Die nvidia shield tv und nvidia shield pro bietet mit "ai-upscaling" das dezeit beste Upscaling (für niedrig aufgelöstes Material wie 480p z.B.).
Natürlich nicht direkt mit dlss vergleichbar, aber es werden auch hier fehlende Informationen ergänzt bzw. möglichst passend hinzuerfunden.
Die switch pro wird höchstwahrschl. viel performancezuwachs durch dlss generieren, hat die dann auch "Tensorcores"?

Was mich gar nicht erfreuen würde, ich aber genauso und nicht anders von amd erwarte, ist eine verfrühte Vorstellung von diesem fx resolution dings in einem qualitativ unausgereifgen Zustand.
Nvidia hats vorgemacht, nun wollen alle das von amd auch sehen und zwar schnellstmöglich, also muss amd auch zeitig reagieren.
Nö, müssen sie nicht, warum nicht mal warten, bis das Ergebnis überzeugen kann?
 

PCGH_Torsten

Redaktion
Teammitglied
Tensor@Nvidia ist letztlich auch das Problem mit dem Hammer und den Nägeln: Man hat die Dinger für andere Zwecke entwickelt und wie bei allen spezialisierten Einheiten dürfte ihre Effizienz im jeweiligen Fachgebiet absolut überragend sein. (Ob pro Fläche, Kosten, Energie definiert lasse ich offen.) Der nächste Schritt ist jetzt, irgendwelche Probleme zu finden, die man von ihnen bearbeiten lassen kann – aber das heißt keineswegs, dass damit umgesetzte Operationen nur damit berechnet werden können. Es heißt nicht einmal, dass Tensor-Kerne der optimale Weg sind.
 

Pu244

Lötkolbengott/-göttin
Was wollen immer alle mit ihrer Zwangskopplung von dlss und Tensorcores?
Die nvidia shield tv und nvidia shield pro bietet mit "ai-upscaling" das dezeit beste Upscaling (für niedrig aufgelöstes Material wie 480p z.B.).

Nvidia hat einen Mehrwert versprochen, den diese Tensorkerne bieten sollen. Bisher war da aber recht wenig zu sehen. Sollte das nun auch auf DLSS zutreffen, dann wäre ein ähnlicher Betrug, wie bei Segas "Blastprocessing"

Die switch pro wird höchstwahrschl. viel performancezuwachs durch dlss generieren, hat die dann auch "Tensorcores"?

Wenn sie den Orin Chip nehmen, dann ja.

Nvidia hats vorgemacht, nun wollen alle das von amd auch sehen und zwar schnellstmöglich, also muss amd auch zeitig reagieren.
Nö, müssen sie nicht, warum nicht mal warten, bis das Ergebnis überzeugen kann?

Man kann aber auch ewig warten und ist dann weg vom Fenster.
 

Sortegon

PC-Selbstbauer(in)
Wenn man das fx resolution ding in zu frühem Stadium auf den Markt wirft, muss man sich nicht über die negative Kritik wundern.
Was soll man als Anwender damit, außer ausgeschaltet lassen?
Na, hauotsache, amd macht IWIE darauf aufmerksam, dass man sich des Themas annimmt, Qualität erstmal egal, die wird später iwann zugepatcht.
Weiß nicht, wie und wem man mit diesem Verhalten einen Gefallen tut, nvidia hätte auch besser dlss 1.0 nicht so vorzeigen sollen.
 

Kelemvor

Software-Overclocker(in)
wollmer nicht erstmal die Fakten abwarten? entweder es kommt wie in dem Video,
oder besser und das video war nur um zu zeigen das AMD alte NVIDIA Generationen nicht ausschliesst, im Gergensatz zu Nvidia.
 
Oben Unten