Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Ich wüsste auch keinen Grun
Nope, läuft er nicht.
Je nach Treiber, Monitor und Mondphase werden es 120,180 oder 240Hz sein.
Mit oder ohne einer sync Technologie an? Mit gsync/free ist es nunmal so fps und hz sind exakt gleich.
Gibt viele Erklärungen dazu ausser ich habe sa etwas übersehen. Lerne gern dazu. Kannst mit gern mal erkären wie du das mit deinen 120/180/240hz meinst bei 60fps.

Ansonsten sehe ich das eher so:

Und ohne sync Technologie...naja, muss jeder für sich selbst test + entscheiden. Tearing kann sogar auftreten wenn fps und hz gleich sind aber nicht synchron. Vielleicht auch ein bisl. Glück wie asynchron ohne sync Technologie die Bilder sind bzw. wie anspruchsvoll der user. Vor 10 Jahren hatte ich auch kein tearing wahrgenommen. ?
 
Ob hier einige sich nochmal die Überschrift, heißt das Thema, nachlesen. Lasst eure 4090 mit dem Stromverbrauch doch woanders raus.
Sag das mal lieber den "roten" Proleten hier. Oder was war mit Intel + RTX4090 brauchste einen 2KW-Trafo. Was soll DIESE Bemerkung hier im Thread:ugly:

AMD macht's mit seinen Oberklasse-Karten ja auch sooo viel besser. Nicht!

Gruß
 
Ich sehe die Karte so: bei AMD haben sich der Ingenieur und der Kaufmann gestritten. Der Ingenieur sagt, nennt die Karte rx7800 (ohne XT) und verkauft sie für 480€. Der Kaufmann sagt, nein wir nennen sie einfach RX7800xt und verkaufen sie einfach für 550€, die Gamer kaufen uns doch alles ab.
 
Mit oder ohne einer sync Technologie an? Mit gsync/free ist es nunmal so fps und hz sind exakt gleich.
Gibt viele Erklärungen dazu ausser ich habe sa etwas übersehen. Lerne gern dazu. Kannst mit gern mal erkären wie du das mit deinen 120/180/240hz meinst bei 60fps.
Weil Bilder mehrfach angezeigt werden.
Bei nativem gsync meist erst bei so bei 35fps, bei adaptive sync je nach Treiber und range des Monitors.
Der Treiber versucht den Monitor immer bei möglichst vielen fps zu halten.
So werden zb bei nem 240Hz aus 53fps 106, 159 oder 218Hz.
Halt immer als ganzzahliger Multiplikator.
Ist seit Anfang so, egal ob Gsync Modul oder nicht.
Ab einer bestimmten Frequenz werden die Bilder mehrfach angezeigt..
Liegt auch einfach daran, dass der scanout immer mit max Hertz des Monitors läuft.
Also du zB 50 fps hast kann der Monitor ohne Probleme 4mal nen scanout machen.
 
tearing geht bei nur weg wenn ich vsync aktiviere mit g sync alleine reicht nicht. Ohne v sync ist im unteren drittel des bildes tearing. Aber vsync ist eh pflicht zumindest wurde das von nv selber so kommuniziert 2014
 
Zuletzt bearbeitet:
warum gibt es dann tearing ohne vsync. ausserdem sollte man auch ein fps limit haben vor der hz zahlt des monitor für die besten g sync ergebnisse.
 
RT sollte man auch nicht überbewerten. Erstmal muss der Titel das unterstützen. Dann muss die gpu schnell genug sein um bei mir z.b. auf 5120x1440 mindestens 70-90fps zu packen. Was bringt Rt wenn die gpu dann nur noch mit 50fps rum dümpelt. Im mittleren Preis und damit im mittleren Leistungsniveau ist RT eher zweitrangig. Nehmen wir mal dying light 2. Laut pcgh in wqhd schafft die 4070 ohne Raytracing 80fps mit RT unter 60fps. Selbst in wqhd ist eine 4070 oft einfach zu schwach als das RT überhaupt von Relevanz ist. In 4k oder bei meinen 5120x1440 kann man RT wahrscheinlich in so ziemlich jedem Titel vergessen außer man hat eine rtx4080 oder 4090. Und selbst da ist die Frage z.b. 80 fps mit RT oder 130fps ohne RT. Ich würde oft mehr fps bevorzugen.
Was bringen dir die höchsten Texturen, wenn du dann mehr als 12GB brauchst.
So kann man immer ran gehen. Dann kommt man auch näher an die Realität! Das man mit jeder aktuellen GPU die nicht Einstiegsklasse ist, die nächsten 5 Jahre anständig zocken kann. Egal ob 12, oder 24GB VRam, egal ob die RT Leistung der 7900, oder 4090.

Ich würde immer die maximalen Details bevorzugen solange wie möglich.

Also eine4070ti ist eigentlich immer stark genug für WQHD mit RT. Eine RX7900 nicht, ab er oft.

Falls es dir in den letzten 20 Jahren nicht aufgefallen ist. Maximale Details haben immer überproportional Leistung gebraucht.


Ebenso lässt sich das auf die Texturen anwenden.

Viele Spiele der letzten Jahren zeigen kaum optische Unterschiede, zwischen den höchsten Texturen und den zweithöchsten. Aber spürbar weniger VRam haben die gebraucht.


Also ich würde die RT Leistung niemals unterbewerten! Genauso wie alles andere auch.


Außerdem, gerade im Zeitalter von DLSS, FSR und Co. sind Karten wie die 4070, oder höher sogar locker schnell genug für wqhd mit RT.


Sofern AMD kein Geld in die Hand nimmt um die Implementierung zu verhindern, oder hinauszuzögern. ;)

Es gehört sich heute, das jede Upsampling Methode unterstützt wird. Auch bei den nächsten Titeln wo DLSS unterstützt wird, aber FSR nicht, werde ich das genau so schreiben und auch verteidigen.


Das jemand in 2023 schreibt, er würde RT nicht überbewerten ist für mich nicht nachvollziehbar.

Aber so haben wir halt alle unsere Meinung.

Wer aber schreibt, er würde RT nicht überbewerten, der dürfte auch das Thema VRam und Raster Leistung nicht überbewerten ;)
Mit meiner 6800XT im HTPC kann ich als ProUser über den den Preis nur schmunzeln. Als Neukäufer in der Leistungsklasse ist das sicher nochmal anders zu bewerten, aber eine 6800XT hat auch noch teils gravierende Reserven übrig und kommt locker an die 6900XT und auf Steroiden auch geschmeidig an eine 6950XT.

Die 7800XT ist aktuell einer der attraktivsten Karten, wenn nicht sogar die attraktivste Karte. Nur, genau das dokumentiert das Trauerspiel dieser Generation bei beiden Herstellern ja schlussendlich. Null Mehrleistung für das selbe Geld ist einfach nur ein Treppenwitz.
Schau dir mal seit der R9 290X an, wie sich Leistung pro Preis entwickelt hat. Eine Katastrophe! ISt nicht auf AMD bezogen, gilt für alle GPUs.

Natürlich gab es mal mehr, mal weniger im Schnitt, haben wir aber seitdem echt wenig Mehrleistung bekommen.
 
warum gibt es dann tearing ohne vsync. ausserdem sollte man auch ein fps limit haben vor der hz zahlt des monitor für die besten g sync ergebnisse.
Lese ich seit Jahren.
Nur nutze ich seit Anfang an bei Gsync Gsync+Vsync im Treiber.
Mittlerweile kann man ja wählen, am Anfang war Vsync bei Gsync immer mit aktiv.
Probleme mit tearing habe ich nie gehabt.
 
ist wohl keine genaue wissenschaft. :nicken: Ich habe einfach framelimit, vsync und gsync im treiber an und es klappt. der rest kümmert mich nicht. Wobei auch reflex als framelimit dient 5 fps unter der hz zahl des displays.
 
Lese ich seit Jahren.
Nur nutze ich seit Anfang an bei Gsync Gsync+Vsync im Treiber.
Mittlerweile kann man ja wählen, am Anfang war Vsync bei Gsync immer mit aktiv.
Probleme mit tearing habe ich nie gehabt.
Gsync und vsync gleichzeitig sehe ich kein Nutzen. Gsync arbeit so gut dass es alleine eigentlich locker reichen sollte. Bei gsync wird dann die HZ Zahl des Monitors an die fps der gpu angepasst wenn der Monitor mehr kann als die gpu. Kann die gpu mehr fps als der Monitor hz dann werden die fps durch gsync reduziert. Wozu dann noch vsync.
 
Weil folgende Aussage nicht zutrifft:



Nach dem Lesen von den Kommentaren von JoM79 hättest Du das aber wissen können.
Doch stimmt leider doch. Bei Gsync und freesync sind immer hz=fps. Was anderes höre ich zum ersten mal und bitte dann mal einen Beweis dass dies so ist. Artikel, youtube...
Die allgemeine Monitor Lehre ist aktuell einfach so wie ich es sage: hier nochmal die kurze Erklärung. Davon gibts bei jedem Tech-Youtuber die gleichen Erklärungen. Ergebnis
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Was anderes höre ich zum ersten mal und bitte dann mal einen Beweis
Schau dir die Range an in der die beiden Syncs arbeiten. Bist Du außerhalb, arbeitet es nicht mehr.
Doch stimmt leider doch.
Du bist dir da sicher?

Bei Gsync und freesync sind immer hz=fps
Das ist schonmal nicht richtig
Auch andere deiner Aussagen sind falsch gewesen weil Du irgendwas annimmst, was Du nicht verstehst. Du sagst, ich soll mich damit mal auseinandersetzen und hast es offensichtlich selbst nie getan. Deswegen schaltet "jeder YouTuber" auch VSync an oder nutzt einen FPS Limiter. Auf PCGH, was ich übrigens die seriösere Quelle halte, gab es dazu auch schon Beiträge.
 
Zuletzt bearbeitet:
Gsync und vsync gleichzeitig sehe ich kein Nutzen. Gsync arbeit so gut dass es alleine eigentlich locker reichen sollte. Bei gsync wird dann die HZ Zahl des Monitors an die fps der gpu angepasst wenn der Monitor mehr kann als die gpu.
Richtig.
Kann die gpu mehr fps als der Monitor hz dann werden die fps durch gsync reduziert. Wozu dann noch vsync.
Falsch.
Lies dich mal wirklich ins Thema ein.
Gsync hat noch nie die fps reduziert, wie auch.
Bei Gsync und freesync sind immer hz=fps. Was anderes höre ich zum ersten mal und bitte dann mal einen Beweis dass dies so ist. Artikel, youtube...
Quelle
https://www.amd.com/de/technologies/free-sync-faq#faq-Was-ist-die-Kompensation-niedriger-Bildraten?
Oder ist dir das nicht offiziell genug.

Dazu
 
Zuletzt bearbeitet:
Richtig.

Falsch.
Lies dich mal wirklich ins Thema ein.
Gsync hat noch nie die fps reduziert, wie auch.

Quelle
https://www.amd.com/de/technologies/free-sync-faq#faq-Was-ist-die-Kompensation-niedriger-Bildraten?
Oder ist dir das nicht offiziell genug.

Dazu
Jetzt bringst du aber einiges durcheinander. Dort wird die "Mindestbildwiederholfrequenz" erklärt. Lies dir mal genau durch was du postet. ?
Natürlich kann ein Monitor die HZ nicht grenzenlos runterregeln. Der ist technisch irgendwann am Ende wie z.B. wenn ein 240hz nicht unter 60hz kommt. Kann die gpu z.b. 65fps danm dreht dein Bildschirm auch so weit runter und du hast 65hz. Bei 70fps = 70hz. Unter 60hz (wenn das die technische mindestbildwiderholrate ist) dann geht der nicht unter 60hz sondern dann kommen die Geschichten woe bei 40fps = 80 hz etc. Das liegt aber rein an den technischen Spezifikationen des Monitors ändert nichts daran das hz=fps, in den technischen grenzen des Monitors natürlich. Jeder Monitor hat max und min Hz.
Schau dir die Range an in der die beiden Syncs arbeiten. Bist Du außerhalb, arbeitet es nicht mehr.

Du bist dir da sicher?


Das ist schonmal nicht richtig
Auch andere deiner Aussagen sind falsch gewesen weil Du irgendwas annimmst, was Du nicht verstehst. Du sagst, ich soll mich damit mal auseinandersetzen und hast es offensichtlich selbst nie getan. Deswegen schaltet "jeder YouTuber" auch VSync an oder nutzt einen FPS Limiter. Auf PCGH, was ich übrigens die seriösere Quelle halte, gab es dazu auch schon Beiträge.
Zeige mir die pcgh Beitrag oder einen anderen der mir dies erklärt dass bei h
gsync/freesync nicht die Wiederholfrequenz des Monitors (wenn der Monitor mehr hz als die gpu fps)
runterregelt und dann hz=fps ist. (Im Bereich was der Monitor mit Max-min darstellen kann).
Einfach mal die Quelle hier posten. Ich habe bestimmt schon 3 verschiedene Quellen hier veröffentlicht.
 
Ich bring da garnichts durcheinander.
Die AMD Quelle erklärt dir einfach nur was passiert.
Nehmen wir die typischen 48-144Hz adaptive sync Monitore.
Da regelt der Nvidia Treiber schon deutlich früher, meist so bei 55-60fps und nicht erst bei 47fps.
Bei AMD läuft das auch nicht viel anders.
Also nein, der Treiber macht da was anderes als die eigentliche range im EDID.
 
Warum spricht hier eigentlich keiner mehr über das eigentliche Thema? ;-)

Bei Alternate beispielsweise sind die 7800 XT-Karten schon wieder vergriffen.
Die Sapphire Nitro+ konnte man bis gestern für 600,- vorbestellen, heute sind es schon 621,-
Eine Preiserhöhung, während das Produkt noch gar nicht am Lager ist...
Die Sapphire Pulse ist auch zu heute um 2 Euro gestiegen - diese ist allerdings nicht mal vorbestellbar.

Ist die Nachfrage echt so hoch, dass man nach Belieben die Preise erhöhen kann?
Mal eben 21 Euro über Nacht draufschlagen ist schon ne Hausnummer. Zufälligerweise sind sie damit im Preisvergleich immer noch bei den Günstigsten! ;-)
 
Zurück