Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Selbst der Desktop ist auf AMD knackiger...

Vielleicht wird es Zeit auf einen digitalen Bildausgang zu setzen. Oder willst du behaupten, Nvidiakarten wären nicht in der Lage die Farbdaten von 2D-Grafik originalgetreu an den Monitor weiterzugeben?
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Vielleicht wird es Zeit auf einen digitalen Bildausgang zu setzen. Oder willst du behaupten, Nvidiakarten wären nicht in der Lage die Farbdaten von 2D-Grafik originalgetreu an den Monitor weiterzugeben?
Ist doch nen bekanntes Spielchen der AMD-Propellerjungs, sich irgendwelche Vorteile von AMD auszudenken, die dann einer faktischen Überprüfung nicht stand halten.

Das AMD-Bild wäre schärfer oder hätte bessere Farben - alles Bullshit.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Wahre Geschichte!

Ich hab meine GTX 1070 seiner Zeit über kleinanzeigen gegen meine jetzige Vega 64 Strix getauscht.
Zum einen auch weil ich FreeSync nutzen wollte (Da gab es Gsync Compatibel noch nicht) aber auch aus anderen Gründen, aber darum geht es nicht.

Ich bin also zu dem jenigen hingefahren.
Hab zu dem Zeitpunkt noch - seine Vega 64 im Betrieb angeschaut.

Danach baute er meine GTX 1070 bei sich zum test ein.
Und meinte direkt ... während der Treiber Installation, das der Desktop viel besser aussehen würde, das grün wäre knackiger und insgesamt die Farben usw... sein Kumpel hätte doch recht gehabt und was nicht sonst noch alles...

Und ich schaute mir den Screen an und dachte mir so... :ugly: Einbildung ist auch eine Bildung ...
Aber es ging ums Geschäft, also keine Diskussion. Die 30 Euro aufpreis bezahlt und die Vega mit genommen :daumen:
Dazu war die Vega gerade 2 Monate alt und mit Rechnung, und meine GTX schon knapp ein Jahr und ohne Rechnung.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Erst behauptet ein Indianer AntiLag ist nur prerender Limit und dann kommt ein anderer Indianer und sagt dx12 wird nicht unterstützt.
Ja was denn jetzt?

Tip: Nur eins davon stimmt, zumindest vorerst.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Wahre Geschichte!

Ich hab meine GTX 1070 seiner Zeit über kleinanzeigen gegen meine jetzige Vega 64 Strix getauscht.
Zum einen auch weil ich FreeSync nutzen wollte (Da gab es Gsync Compatibel noch nicht) aber auch aus anderen Gründen, aber darum geht es nicht.

Ich bin also zu dem jenigen hingefahren.
Hab zu dem Zeitpunkt noch - seine Vega 64 im Betrieb angeschaut.

Danach baute er meine GTX 1070 bei sich zum test ein.
Und meinte direkt ... während der Treiber Installation, das der Desktop viel besser aussehen würde, das grün wäre knackiger und insgesamt die Farben usw... sein Kumpel hätte doch recht gehabt und was nicht sonst noch alles...

Und ich schaute mir den Screen an und dachte mir so... :ugly: Einbildung ist auch eine Bildung ...
Aber es ging ums Geschäft, also keine Diskussion. Die 30 Euro aufpreis bezahlt und die Vega mit genommen :daumen:
Dazu war die Vega gerade 2 Monate alt und mit Rechnung, und meine GTX schon knapp ein Jahr und ohne Rechnung.

Jeden Morgen steht ein.........auf
Wer ne 64 Strixx tauscht gegen ne 1070 hat nichts anderes verdient.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Selbst der Desktop ist auf AMD knackiger, die nebenbei bemerkt, die meisten Features in Konsolen, PC, Treiber (Mantle) etablieren und nicht nur unter DX11 optimieren.

Ersteres ist eine Erfindung und absoluter Bullshit und dass Nvidia nicht unter Directx12 oder Vulkan optimiert ist noch größerer Schwachfug.

NVidia hat unter Directx11 häufig den besseren Treiber weil die Karten durch Multithreading besser ausgelastet werden und unter Directx12 oder Vulkan die in der Minderheit sind, hat NVidia mit Turing an allen Punkten überholt.
Async Compute, FP16, CAS, MS, VRS, usw. bzw. gleichgezogen.

Lege eine Quelle vor, dass das AMD Bild knackiger sein soll, mir ist dazu nicht ein einziger Artikel bekannt.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

(Edit: Mod den Beitrag hättest auch löschen können, dieser Kommentar macht keinen Sinn ohne die gelöschten Beiträge zuvor - nur zufällig gerade aufgefallen :D )

Endlich les ich Sexismus auch mal hier, weil der allgemeine Genderwahnsinn ja nicht eh schon ausufert. (Ich steh auf gleichberechtigung, man kann den Gender Wahnsinn aber auch übertreiben ... )

Außerdem was soll das.

Dann schmeißen die nV Jungs eben ihre Dawn in den Ring.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

An schönen Frauen im passenden Kontext hab ich nichts auszusetzen.
So ganz allgemein gesagt.

Cossplayerinnen sind auch toll, uswusf.
Trotzdem heißt das nicht das ich meine Frau so vor die Tür gehen lassen muss oder jede Frau nur auf sowas reduzieren müsste.

Kommt halt immer auf den Kontext an ;)

Edit:
Wenn ich in einem Game mein Char XY rum rennen lasse, heißt das ebenfalls nicht das meine Frau auch so rum rennen müsste oder ich so vor die Tür lassen würde :D und wenn ich mir dann noch überlege wie viele Frauen selbst ihre Game Chars wer weiß wie rum rennen lassen ..... ohne auch nur Ansatzweise selbst Real dieses zu tun.... ;) Fantasie, Kontext, und all sowas... ;)
 
Zuletzt bearbeitet:
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Nein kann es ganz offensichtlich nicht sein, CPU prerender limit kann es nicht sein da dies bei AMD standardmäßig auf "niedrigste Latenz" steht.

Und was ist niedrigste Latenz? Maximal 1 Frame als prerendered Limit?
Was verwendet Battlefield 5 genau für eine Einstellung? Ohne das zu wissen, ist dein Einwand recht belanglos.
Inwieweit ist Battlefield mit der Einstellung von AMD vergleichbar? Einfach zu viele Fragezeichen. Und für die Latenzen mögen mehr Prerendered Frames vielleicht schlecht sein, nicht aber für Frametimes oder wie flüssig das Spiel läuft.

Weil die API Vorgaben das verhindern. Man müsste gegen die Spezifikationen verstoßen um es umzusetzen. Kann man machen, ja. Macht Nvidia bspw. bei VSync, indem der Treiber die Spieleinstellungen überschreibt, obwohl er das nicht darf. Daraus kann man dann ein "Feature" konstruieren, nach dem Motto "Ey Nvidia is viel geiler, da kannst wenigstens VSync erzwingen".

Also ist es am Ende vielleicht gar so, dass sich dieses AMD Feature nur unter der alten, zugegeben noch verbreiteteren API nutzen kann und bei Nvidia dann in allen API´s?

Es werden auf jeden Fall interessante Tests werden und dann schauen wir mal was von AMD´s Latenzfeature übrig bleibt.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Na ja ich bin auch eher AMD Sympathisant als nV oder Intel.

Trotzdem hab ich noch ein Intel im System und kaufe eine nV Karte wenn es für mich lohnender ist als das AMD gegenstück.
Damit meine ich nicht mal unbedingt offizielle Versand Portale, sondern auch das was man mit Deal XY (wie der angesprochene Vega Deal z.B.) sich ergibt.

Was mir gerade allerdings auffällt.
Wir haben ja jetzt viele Fälle gesehen in der jüngeren Vergangenheit wo AMD mit den Frametimes glänzte, was mich als AMD Karten Besitzer natürlich freut.

Aber da der aktuelle Default Wert (Der ja auch aktuell nicht verändert werden kann über den Treiber) der maximum prerendered frames bei AMD ja unbekannt und nicht im Treiber einstellbar ist, könnte das vll auch einfach daher rühren? Wird natürlich spannend das in Zukunft dann zu beobachten wie sich die Frametimes verhalten.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Wir haben ja jetzt viele Fälle gesehen in der jüngeren Vergangenheit wo AMD mit den Frametimes gänzte, was mich als AMD Karten Besitzer natürlich freut.

Wo ist das denn gewesen? Also wenn ich die einschlägigen Tests durchblättere kann ich im Schnitt keine besseren AMD Frametimes finden.
Auch in der PCGH habe ich das noch nie gelesen.


da der aktuelle Default Wert (Der ja auch aktuell nicht verändert werden kann über den Treiber) der maximum prerendered frames bei AMD ja unbekannt ist, könnte das vll auch einfach daher rühren? Wird natürlich spannend das in Zukunft dann zu beobachten wie sich die Frametimes verhalten.

Ich denke mal das wird das wahrscheinlichste Szenario sein, Nvidia kann ja auch mal recht haben.
Müssen ja nicht immer Dinge erfinden.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Ich kann und will's nicht verallgemeinern, aber nachdem kürzlich meine GTX abgeraucht ist und ich erst einmal mit der etwas schwächeren RX Vorlieb nehmen muss, hatte ich auch den Eindruck, das die Farben satter wirken. Allerdings hatte ich, wenn ich mich recht erinnere, damals den gleichen Eindruck beim Wechsel von einer Radeon auf Geforce.

Wenn da also objektiv etwas dran ist, dann vermutlich eher durch das Zusammenspiel von GPU, Treiber und bestimmten Darstellungsgeräten / Anschlüssen, nicht aber deshalb, weil das eine oder andere Team grundsätzlich "farbechtere" Grafikchips baut - wie immer das auch funktionieren sollte.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Also wenn da irgendetwas dran wäre, hätte man das längst erfahren.
Es gibt außer Nvidias HDMI Voreinstellungen und dem begrenzten Farbraum keinerlei Hinweise auf Unterschiede und wenn überhaupt ist es dann Einstellungssache.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Und was ist niedrigste Latenz? Maximal 1 Frame als prerendered Limit?
Was verwendet Battlefield 5 genau für eine Einstellung? Ohne das zu wissen, ist dein Einwand recht belanglos.
Inwieweit ist Battlefield mit der Einstellung von AMD vergleichbar? Einfach zu viele Fragezeichen. Und für die Latenzen mögen mehr Prerendered Frames vielleicht schlecht sein, nicht aber für Frametimes oder wie flüssig das Spiel läuft.
BF5 nutzt pre rendered frames, ist eigentlich bekannt.

Belanglos ist lediglich dass was du schreibst. Würdest du dich auch nur etwas mit der Thematik auskennen,dann wäre dir klar, dass pre rendered frames eine API unabhängige Technik ist.
Du hast nichts von den besten Frametimes wenn dein Inputevent merklich hinterherhänget, das sind nämlich 2paar Schuhe.
Zudem steigt mit mehr pre rendered frames idR auch das (dann merkliche!) nicro-stuttering.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Wo ist das denn gewesen? Also wenn ich die einschlägigen Tests durchblättere kann ich im Schnitt keine besseren AMD Frametimes finden.
Auch in der PCGH habe ich das noch nie gelesen.

Praktische Unterschiede bei den Frametimes gibt es nur im Extremfall, wenn die Framerate unter 40 FPS sinkt. Bei geringen Frameraten fühlt sich die Radeon RX Vega 64 tatsächlich ein wenig gleichmäßiger an als eine GeForce-Grafikkarte mit identischen FPS-Werten.

Rage 2 im Technik-Test: GPU-Benchmarks mit Frametimes - ComputerBase

Bereits anhand der Balkendiagramme hat sich erkennen lassen, dass die Frametimes bei AMD und Nvidia unterschiedlich gut ausfallen. Das genauere Liniendiagramm mit dem Vergleich der drei bei den FPS fast gleich schnellen Grafikkarten Radeon RX Vega 64, GeForce GTX 1080 und RTX 2070 bestätigt das. Klar die besten Frametimes hat in The Division 2 die Radeon RX Vega 64. Sie sind zwar nicht ganz perfekt, aber durchaus nahe dran.

The Division 2 im Technik-Test (Seite 2) - ComputerBase

Das Frametime-Diagramm zeigt dann auch an, warum die Percentile-Werte in den Diagrammen auf einer AMD-Grafikkarte mit Vega so gut ausfallen. AMD-Grafikkarten auf Basis der Vega-Architektur haben in Far Cry New Dawn die regelmäßigsten Frametimes

Far Cry New Dawn im Technik-Test (Seite 2) - ComputerBase

Die Frametimes an sich sind mit DirectX 12 auf beiden Grafikkarten gleichmäßiger; auf einer Radeon RX Vega 64 etwas mehr als auf einer GeForce GTX 1080. Zwar zeigt die AMD-Grafikkarte einige „Berge“, doch sind diese so klein, dass dies keine Rolle spielt. Die Nvidia-Grafikkarte zeigt weniger aber dafür heftigere Ausreißer.

Shadow of the Tomb Raider im Technik-Test (Seite 3) - ComputerBase

F1 2018 hat zumindest in der Vorabversion mit – vermutlich – noch nicht gänzlich optimierten Treibern noch einige Schwierigkeiten bezüglich der Frametimes. Vor allem die GeForce GTX 1080 zeigt in 2.560 × 1.440 immer wieder einige Spikes. Diese fallen zwar nicht sonderlich groß aus, sind aber vorhanden. Die Radeon RX Vega 64 hat generell ein ähnliches Problem, allerdings ist dieses bezüglich der Häufigkeit und der Intensität deutlich weniger ausgeprägt.

F1 2018 im Benchmark-Test (Seite 2) - ComputerBase

Bei ausreichend hohen Frameraten läuft The Crew 2 sehr flüssig. Zu keiner Zeit sind Stocker in dem Spiel aufgefallen, selbst beim schnellen Fahren und Fliegen arbeitet das Streaming in der Open World einwandfrei – unabhängig von der Detailstufe. Das zeigen auch die Frametimes, die auf einer GeForce GTX 1070, vor allem aber auf der Radeon RX Vega 56 sehr gut ausfallen. Auf der Nvidia-Grafikkarte gibt es kleine Ausreißer, jedoch sind diese beim Spielen nicht zu spüren.

https://www.computerbase.de/2018-07...rametimes_auf_einer_amd_und_nvidiagrafikkarte

So als ein paar Beispiele.
Darüber hinaus gibt es die Frametime Diskussion - besonders bei den RTX Karten - ja nicht erst seit heute:

https://www.hardwareluxx.de/community/f14/2080-ti-ruckler-frametime-spikes-1217103.html

Und ja, fairerweise muss man auch sagen, gibt es durch aus Titel wo nV die besseren Frametimes hat, z.B. bei Anno.
Denke aber die Marschrichtung weswegen ich ansprach ob vll der Grund der besseren Frametimes der bisher unbekannte wert der "maximum prerendered frames" ist, und daher interessant ist das in Zukunft zu beobachten, ist klar geworden - zumindest hoffe ich es. Und CB ist ja nun nicht gerade dafür bekannt das AMD zugeneigteste Blatt zu sein ...

Wenn nicht irre ist bei nV der Default Wert bei 3?
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Ohne Frage haben die beiden neuen innovativen Features von AMD einen weit höheren Praxisbezug als Raytracing und sind daher ein starkes Argument in Falle einer Kaufentscheidung. :daumen:
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

BF5 nutzt pre rendered frames, ist eigentlich bekannt..

Wichtig wäre zu wissen, welche Einstellungen Battlefield 5 nutzt und wie diese vergleichbar sind.
Vorher bringt das gar nichts, sich darüber zu streiten, die Implementierung in BVF kann durchaus etwas anders sein.

Belanglos ist lediglich dass was du schreibst.

Ja, das denk ich mir, du klatscht einfach einen Benchmark hin und behauptest irgendetwas, ob das stimmt oder überhaupt vergleichbar ist, interessiert dich ja eh nicht.

Würdest du dich auch nur etwas mit der Thematik auskennen,dann wäre dir klar, dass pre rendered frames eine API unabhängige Technik ist.

Weniger prerendered Frames geben dir immer weniger Inputlag, aber erst einmal muss man wissen, wie diese Einstellung von Battlefield 5 vorgenommen wurde und was sie für Variablen enthält und damit ist auch dein Argument Nvidia würde diese Einstellung mehr Performance kosten mit einem Spiel bei BF5 überhaupt nicht abgetan, das kann ganz unterschiedliche Gründe haben, wieso die Radeon ohne FFR +5% Punkte schneller rechnet.

Auf der anderen Seite profitieren die Spieler aber eher von FFR. Wie das jetzt genau mit den Prerendered Frames im Nvidia oder AMD Treiber vergleichbar ist, muss man erst einmal sehen, Dice kann das Spiel auch darauf ausgelegt haben.

Du hast nichts von den besten Frametimes wenn dein Inputevent merklich hinterherhänget, das sind nämlich 2paar Schuhe.

Du hast auch nichts von wenig Inputlag wenn die Frames zwar schnell kommen, das aber ungleichmäßig.
Vergleich das mit Crossfire im CPU Limit, furchtbar. Deshalb wurde Framepacing eingeführt.

Zudem steigt mit mehr pre rendered frames idR auch das (dann merkliche!) nicro-stuttering.

Und da soll es also nicht relevant sein, welche genaue Einstellung BV5 mit ihrer Engine einstellt und verwaltet?
Gibts da irgendwo eine Quelle oder Link? Eher führen weniger preendered Frames zu micro-stuttering und Drops, mehr führen eher zu mehr Inputlag, aber gleichmäßig verteilten Frames, es ist also genau umgekehrt, also wirf mir doch nicht vor mich nicht auszukennen, wenn du diesen Denkfehler machst.
Du nennst sowas hier Mindeststandards einer Diskussion? Oder wieso verteidigst du ihn?

Immer noch besser als einfach zu lügen, so wie du das machst.
Jemand weißt dich zurecht auf einen Fehler hin, belegt es mit Quelle und du fängst dann an die Person die dich darauf hingewiesen hat mit "Schmarrer" anzusprechen und irgendwelche Bildchen zu posten.
Man kann Fehler auch einräumen ohne persönlich zu werden.

Seine Tonalität ist ja wohl eindeutig provokativ. Mit so jemandem kann man nicht diskutieren. .

Die Tonalität hier in diesem Forum ist generell provokativ, fast alle Beiträge von den üblichen Verdächtigen sind das.
Manchmal muss man sich hier jetzt zusammenreißen, weil offenbar gar niemand mehr an einer offenen Diskussion interessiert ist.

...dann kann man dich auch nicht mehr ernst nehmen. Wenn es dir ausreicht, dass jemand in den allermeisten Fällen richtig liegt und sonst nur Mist schreibt, bitte. Muss ich mir ja nicht antun.

Ja, er hat leider zu oft völlig recht.
Das mit den Schafen passt recht gut. Äußert sich AMD gibt es Lobpreisungen, äußert sich Nvidia gibt es Shitstorm.
Wenn ich von ZeroZerp lesen muss, dass Spielehersteller RT Features wie in Metro downgraden, damit die RT Gegner nicht die beleidigte Leberwurst spielen, dann frage ich mich schon, was eigentlich los ist und ob es noch die Gamer-Community gibt, oder ob Fortschritt nur dann gut ist, wenn es von einem gewissen IHV kommt.

So also ein paar Beispiele.

Ab da habe ich aufgehört zu lesen.

Der neue Grafikkarten-Testparcours - ComputerBase

Computerbase 4K Frametimes GTX 1080 vs Vega 64.
FPS Vega 64 +5%
Frametimes aus dem 99,8 Percentil umgerechnet in FPS +4% zur GTX 1080.

Also streng genommen hat die 1080 in 4K die leicht besseren Frametimes, auch wenn das Messungenauigkeit ist.
Ich sehe da keinen Anlass anzunehmen AMD habe die Besseren.

Und ja, fairerweise muss man auch sagen, gibt es durch aus Titel wo nV die besseren Frametimes hat, z.B. bei Anno.
Denke aber die Marschrichtung weswegen ich ansprach ob vll der Grund der besseren Frametimes der bisher unbekannte wert der "maximum prerendered frames" ist, und daher interessant ist das in Zukunft zu beobachten, ist klar geworden - zumindest hoffe ich es. Und CB ist ja nun nicht gerade dafür bekannt das AMD zugeneigteste Blatt zu sein ...

Es hält sich die Waage und nein CB ist nicht Anti AMD oder Anti Nvidia oder sonst irgendwas.
Solange GPU´s kein generelles Frametime Problem haben, bringt es eh null diese Graphen anzuschauen.
Ich kann mich mal an die 7970 erinnern, die hatte damals Probleme, wurden aber gefixed.
 
Zuletzt bearbeitet:
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

So als ein paar Beispiele.
Man könnte jetzt alle Beispiele raus suchen, wo die RTX-Karte bessere Frametimes hat und sagen: RTX-Karten haben bessere Frametimes als Radeons.

Und dann?

Hier würde doch nur noch eine statistische Auswertung helfen, also in x Prozent der Fälle sind die Frametimes bei y besser. Dann müsste man noch die Höhe der Unterschiede klassifizieren, schließlich sind 1% Unterschied ziemlich vernachlässigbar, 30% wären deutlich stärker zu gewichten.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Immer noch besser als einfach zu lügen, so wie du das machst.
Jemand weißt dich zurecht auf einen Fehler hin, belegt es mit Quelle und du fängst dann an die Person die dich darauf hingewiesen hat mit "Schmarrer" anzusprechen und irgendwelche Bildchen zu posten.
Man kann Fehler auch einräumen ohne persönlich zu werden.

1.) Zeig mir bitte wo ich gelogen habe ;)

2.) Ich habe in meinem Post danach gesagt, dass ich eine falsche Annahme getroffen habe. Hast du das überlesen?

3.) A Schmarrer is anner der an schmarrn red. Es kommt nur drauf oa wie's das noch soagst und ned woas. ;) bissl Kultur für di

4.) Bist du jetzt beleidigt wegen Ruby? :D Humor? Anyone? Oder anderes Ufer? AMD hat glaube ich keinen Rupert. Whatevs Bro. Chill. Ach, warte das gibt's bei Nvidia nicht. :daumen:
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

. Das interessiert aber keinen was er will! Derzeit sehe ich eher nur die NV User toxisch reagierend auf die AMD News und weniger umgekehrt.

Dann musst du bei Zeiten einfach mal ein bisschen besser darauf achten, was geschrieben wird.
Ich bin auch eher AMD User, das heißt, sofern mich AMD mal wieder anspricht, wird es definitiv eine AMD GPU oder CPU.
Aktuell ist das aber eben nicht der Fall und die Radeon VII war ein Griff ins Klo, weil sie einfach keine Leistung in meinen Spielen bringt.
Divion 2 war ganz nett, da performte sie auch klasse, aber ansonsten kam ich oft nicht über das Niveau einer 1660 Ti (ARK, Rust, Escape from Tarkov).

Es ist einfach ein auf und ab, mit der Navi Gen erwarte ich da Besserung.
 
AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben

Falsch (sowohl der Wert 3 als auch deine Schreibweise von Standard). RadeonMod ist uralt und zeigt bei aktuellen Grafikkarten und neueren Treibern nur noch Müll an.
Falsch!
Der Standardwert IST 3, genau so steht es auch in der Registry und das ganz ohne RadeonMod! Nur weil die letzte Version fast 3 Jahre alt ist, heist das nicht, dass nur noch Müll angezeigt wird denn das ist nicht der Fall.
Stell dir vor, AMD hat die Regs seit Jahren nicht geändert, lediglich ein paar hinzugefügt. :schief:

Screenshot_1.png
 
Zuletzt bearbeitet:
Zurück