Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Du kannst natürlich nach Belieben auch Bildchen posten.

Ich hab jetzt erstmal nur geschaut, welche Games wohl viele Leute spielen.

7800xt@HUB.jpg
 
Zuletzt bearbeitet:
Man könnte ja auch einfach die Tests von techpowerup und CB verlinken, dann kann sich jeder selbst ein Bild machen.
mach doch, ... oder einfach 3dC, wo viiiiele Reviews gelistet werden


nur hat leider net Jeder soviel Zeit wie Du, um überall rumzuschauen
 
Die Preise werden garantiert sinken, ich seh die Karte bald bei unter 500 Euro.
Und für unter 500 Euro ist es auch ok.
Sobald die Preise sinken, ist das sicher eine gute Wahl.
Kommt seeehr auf die Games an: .... ala 7600 vs 6650

Anhang anzeigen 1436520
Deswegen zieht ein jeder Test immer einen Schnitt, der solche Ausreißer halt identifiziert und das Bild gerade rückt. Damit man im Mittel die Leistung einschätzen kann. ;)
 
Suchst du gerade jeden einzelnen Bench raus, bei dem AMD gut darsteht?

So ganz ohne Text ist das recht anstrengend, weil man nicht weiß, was du gerade von einem möchtest ;)
seahawk und RX480 habe ich schon auf Ignore! Das müssen AMD Angestellte sein! :schief:
Ich persönlich bin kein Fan von der Ignore Funktion.
Geht doch der Grundgedanke einer Diskussion verloren. Aber manchmal kann man das schon verstehen.
Soso... das ist also der neue 4070-Killer:

2% mehr Leistung beim rastern, dafür aber 18% weniger Leistung mit Raytracing und das ganze bei 20% mehr Stromverbrauch.
Genau das habe ich auch gedacht.
+ ohne DLSS SR, Frame Gen im direkten Vergleich bleibt abzuwarten und ohne RR.
Ich kann leider nicht ganz entziffern, was einem dieser Satz sagen soll? Sry
Why?

Es gibt einfach neue Games, die noch net im Parcour sind.
dito
Ist natürlich OCing interessant.
Hm, das sind aber nicht alle und du betreibst hier auch nicht deine eigene Seite.
Ich habe sogar selbst Interesse an solchen Zusammenfassungen, aber dann mach einen Thread dafür auf und benenne den so, das man den findet.

Hier im Thread ist das nur Bullshit.

Deine Benchs verzerren eher das Bild zu AMDs Gunst, als das ein neutraler Überblick erzeugt wird.
Du kannst natürlich nach Belieben auch Bildchen posten.

Ich hab jetzt erstmal nur geschaut, welche Games wohl viele Leute spielen.
Bin mir ziemlich sicher, das momentan viele Starfield spielen und soll ich dir etwas sagen.

Obwohl der Nvidia Treiber noch nicht richtig funktioniert (anscheinend, siehe Auslastung in Relation zum Powerlimit),
kann ein jeder mit einer RTX4000 DLSS(inkl. FG) nutzen und ja, das sieht am besten aus und es gibt absolut keine Performance Probleme.

Heute muss man mehr in die Betrachtung rein ziehen. Als nur ein paar Balkenlängen.

Wenn überlege das solche Situation nicht seltener sind, als das zum Beispiel Speicher ein Thema ist, stellt sich die Frage was wichtiger ist.


Ich persönlich finde die Tests bei CB ganz nett, weil da oft zusätzlich ein Test der neusten Spiele gemacht wird.

Aber auch da gibt es mehr zu betrachten.
 
Zuletzt bearbeitet:
Leider gibts noch kein 50 Games Video von HUB.
(sonst hätte vermutlich ein Bild gereicht)

ne Zahl Overall ist leider net informativ genug
 
Wenn ich schon wieder lese dass die Karte 50 oder 60W raushaut wenn ich ein YouTube Video aufmache oder schnelle oder mehrere TFTs anschließe ist das nicht nur ne Schwäche sondern einfach ein absolutes No-Go.
Wobei dazu einmal ne kurze Erklärung:
Wenn du bei den 7XXX Karten einen Pixel Clock (lässt sich mit CRU auslesen) von 1080Mhz überschreitest, taktet der VRAM nicht runter...
Im Anhang mal die Pixel Clocks meiner beiden Displays,
3440x1440@144Hz.
2560x1440@60Hz.

Die beiden Pixel Clocks liegen dann bei 800Mhz + 242Mhz, also insgesamt unter 1080Mhz und damit Taktet mein VRAM runter.
Stelle ich den zweiten Monitor auf 180Hz, überschreite ich den Pixel Clock und habe dann das Problem.
AMD könnte durchaus an den DisplayPort Einstellungen bezüglich Blanking etc. rumpfuschen um den PixelClock zu verringern, dadurch soll es aber Probleme mit alten Displayport Displays und alten Kabeln geben.
Deshalb muss man sich - soweit ich das richtig verstanden habe - da vorsichtig rantasten.

Wenn jemand dazu noch mehr Details hat, bin ich daran interessiert, das ist auch mehr Halbwissen, welches ich im Internet aufgeschnappt habe.
Meine XTX liegt auf jeden Fall (ohne zweiten High Refresh Rate Monitor) unter 13 Watt.

Das betrifft aber nur die "Multidisplay High Power Draw Problematik".
Die (bei mir) 53 Watt im UHD Youtube Video sind anscheinend bei AMD normal...
 

Anhänge

  • 1.png
    1.png
    28,1 KB · Aufrufe: 91
  • 2.png
    2.png
    29,1 KB · Aufrufe: 93
mach doch, ... oder einfach 3dC, wo viiiiele Reviews gelistet werden


nur hat leider net Jeder soviel Zeit wie Du, um überall rumzuschauen
Dennoch hast du die ausgesucht, die am Werbewirksamsten waren.
Leider gibts noch kein 50 Games Video von HUB.
(sonst hätte vermutlich ein Bild gereicht)
Selbst das betrachtet nicht alles relevante.
 
rdna 3 kann nicht mehr und nvidia beschneidet die chips künstlich zu extrem. aber amd ist mit dem preis eher im nachteil gegen 4070 wegen denn ganzen features
 
Meine harte Meinung ist, dass AMD schlechter im Raytracing sein darf als die 4070, aber obendrauf in der Preis/Leistung für das Raytracing hinten zu liegen das geht nicht. Unter dem Aspekt müsste die 7800XT 485€ kosten und die 7700XT 425€.

Gerade wenn AMD mit 16GB das Argument, "hält länger" in den Ring wirft, dann sieht es schlecht aus wenn man pro Raytracing Frame sogar mehr zahlt als bei Nvidia.

Aktuell würde ich behaupten wird Nvidia nicht überstürzt reagieren. Besonders wenn man bedenkt, dass Nvidia alles auf RTX setzt und immer noch behaupten kann dafür die beste Preis/Leistung zu haben.

Wenn es nur um Raster geht, dann hätte AMD auch einfach weiter die 6800XT verkaufen können und sich jede menge Chiplet Design Entwicklungskosten sparen können. So ist 7800XT ein reiner Papiertiger wegen dem in Berlin niemand die Polizei ruft wenn man ihm auf der Straße begegnen würde.
 
Du kannst natürlich nach Belieben auch Bildchen posten.
Es geht um die Art und Weise, wie Quellen anzugeben sind. Ein Screenshot (und dann auch noch als Momentaufnahme aus einem Video) ohne Quellenlink ist halt faktisch nicht adäquat.

Why?

Es gibt einfach neue Games, die noch net im Parcour sind.
dito
Ist natürlich OCing interessant.
Im Übrigen darfst Du gerne Deine Umgangssprache (oder was auch immer das darstellen soll) aus Deinen schriftlichen "Beiträgen" heraushalten. Bei dieser Schreibweise stellen sich ja einem die Nackenhaare hoch.
 
Wer die Zahl 7 besser findet als so ne luschige 6, kann jetzt losschlagen-Der Rest mit passenden Budget hat wohl schon ne 6700Xt oder 6800/6800XT.
Also nur was für Leute, die 2 Jahre im Koma lagen und nun wieder aufrüsten !
Danke AMD
Gruß Yojinbo
 
Ganz objektiv betrachtet muss man sich einfach Fragen, wer diese Karten kaufen soll. "Preisbewusst" ist hier auch kein Argument mehr.
Einerseits hat Nvidia mit seinen Modellen - und hier insbesondere mit der 4070 - die Latte so niedrig gelegt, dass AMD im direkten Vergleich nicht wirklich schlecht aussieht (wobei es natürlich, wie immer, auf die eigenen Prioritäten ankommt). Von daher kann man eine 7800XT natürlich prinzipiell kaufen.

Aber am Ende werden wohl genau die Leute eine 7800XT kaufen, die anderenfalls mit einer - nun ja nicht mehr erhältlichen - 6800XT geliebäugelt hätten, und wie viele das nach fast drei Jahren Marktpräsenz noch sein werden, wird man sehen müssen.

Wenn's dumm für AMD läuft, warten die Leute erst mal auf Preissenkungen und gegen Ende des Jahres auf irgendwelche Nvidia-Refreshs, nur um am Ende doch wieder bei den Grünen zu landen.
 
Die gleiche Leistung mit etwas mehr RT Performance und etwas weniger Verbrauch im Jahr 2023 für 549€ an den Mann bringen zu wollen, ist einfach nicht schön und haut keinen vom Hocker! Wo ist da die Entwicklung ? Wenn die Mehrleistung schon nicht da ist, muss es der Preis richten!

Schwach, einfach schwach!
Meine 1070 muss einfach noch bis zur nächsten Gen. warten. Doof wäre es nur, wenn die 8800 XT auch nicht mehr Leistung hat, und falls doch, dann für 799€ verkauft wird!

Intel muss es richten! :ugly:

Ansonsten spiele ich halt nur noch alte Sachen. Starfield ist bei meiner Geschwindigkeit eh erst 2033 dran! :lol:
 
Zurück