News Radeon RX 7700 XT: Performance im 3DMark Time Spy geleakt, schneller als RX 6800

Das ist definitiv nicht Stock. Der Wert ist auf Niveau einer Stock 6950 XT.

Edit: Du kannst gerne glaube dass es nur 30% sind, PCGH und Computerbase zeigen in ihren Benchmarks aber ein anderes Bild und in deren Werte habe ich dann doch etwas mehr vertrauen.
Natürlich ist das Stock. Siehts du doch schon an den Taktraten. wenn ich die Karte aufmache liegt der Takt bei 2650 MHz.
 
Keine Ahnung wie du auf die 43% kommst. In den meisten Tests sind es um die 30%.
Auf TPU sind es in der GPU-Liste sogar 47%...aber das ist nur ein theoretischer Wert.

In unserem neuen, knüppelharten Raytracing-Leistungsindex wahrscheinlich. :D

... wobei, da sind's eher 60 Prozent.

MfG
Raff
In dem sind es auch eher >40%

Aber würde ich Timespy nicht für bare Münze nehmen bei der 7700XT.
 
Auf TPU sind es in der GPU-Liste sogar 47%...aber das ist nur ein theoretischer Wert.


In dem sind es auch eher >40%

Aber würde ich Timespy nicht für bare Münze nehmen bei der 7700XT.
Deine UV Werte sind allerdings merkwürdig gering. Wie sieht denn deine Curve aus?

So sah das bei mir mit dem damaligen 13900K aus:
Ich habe mal ein bisschen rumgetestet:

Erstmal die verschiedenen Settings:
Stock: Einfach nur die Stock Werte der 4090 Suprim X
OC: +120MHz/1500MHz
UV:2550MHz@0,875V/+1500MHz

Mit dem Undervolting lag der Verbrauch, je nach Test, zwischen 260 und 340W. Also fast schon absurd effizient.

Timespy:
Stock: https://www.3dmark.com/spy/34118773
OC: https://www.3dmark.com/spy/34119239
UV: https://www.3dmark.com/spy/34120570

Timespy Extreme:
Stock: https://www.3dmark.com/spy/34119015
OC: https://www.3dmark.com/spy/34119472
UV: https://www.3dmark.com/spy/34120912

Port Royal:
Stock: https://www.3dmark.com/pr/2010320
OC: https://www.3dmark.com/pr/2010301
UV: https://www.3dmark.com/pr/2010439

Leider habe ich einen Kartoffelchip :D
 
Keine Ahnung wie du auf die 43% kommst. In den meisten Tests sind es um die 30%.
Ich schaue mir einfach Benchmarks an, weiß net wie du das so machst.. :D
Aus dem Test:

Und aus dem Test:

Da ist die 6900XT jedenfalls noch mit aufgelistet.
Und das ist der Durchschnitt, klar kann die Karte auch mal langsamer sein (+30%), sie kann aber auch gerne mal 50%+ schneller sein als eine 6900XT.

Selbst im PCGH GPU Index kommt man wohl leicht über 40% Plus raus ;)
 
Ich finde es ist eher umgekehrt. Deswegen kommen auch immer wieder so schwurbblige Kaufberatungen zustande.
Da werden dann stock Karten untereinander verglichen und man haut sich Benchmarks von Seite X vs Seite y um die Ohren.
Jegliche Features werden ausser Acht gelassen und zwecks Vergleichbarkeit wird auf einen gemeinsamen Nenner heruntergbrochen....den in Wirklichkeit niemand nutzt.
Meine RX 6800 kann ich besser uv und besser oc als eine RX 7700 XT...warum ausser Acht lassen?
Wenn FSR3 auf einer RX 7700 XT super funtioniert und auf meiner Kröte nicht muss das bei einem Vergleich oder einer Beratung genauso mit rein.
Das Problem an dieser Sichtweise ist, dass die Karten für gewöhnlich gekauft und eingebaut werden und das war es. Wer so Faul ist selber Benchmarks rauszusuchen bei einer Kaufberatung ist aber selber Schuld vor allem wenn man sich extra dafür in ein Hardware fourm anmeldet und PCGH den tollen Index liefert ein paar klicks entfernt.

Zwar bringen mittlerweile auch Youtuber das Undervolting in den Mainstream aber realistisch gesehen dürfte das fast niemanden interessieren. Stock ist das was zählt, wie es aus der Schachtel kommt. Dass das in einem Forum wo viele tweaken natürlich anders gesehen wird sollte klar sein. Bezweifel aber das es überhaupt 1% der Leute machen. Nvidia hat früher 8-10 millionen an Gpus verkauft pro Quartal(momentan 4-5 millionen). Denke 1% ist noch sehr hoch gegriffen bei den Zahlen.

Fsr 3 wird auch fast niemand nutzen weil es wahrscheinlich nicht gut werden wird, ich persönlich halte von Framegeneration zum Beispiel gar nichts in der ersten Generation wie sie gerade ist. Das ist für mich kein Argument. Wer es noch gar nicht probiert hat kann dazu gar keine Meinung haben. Aber denke nicht das Framegen von Nvidia und Amd sich viel nehmen werden, wenn schon wird Amds Version sogar noch schlechter sein. Das wird vielleicht Casual Gamer mit der 1050 Ti nicht interessieren, aber denke die meisten schon die hunderte € für die Gpu ausgeben. Aber diese Diskussion geht endlos. Da jeder seine eigene Sichtweise hat. :D

Für mich zählt Stock vs Stock. Rumbasteln kann man dann immer noch. Aber wenn mich ein Produkt Stock nicht überzeugt kaufe ich es auch nicht, egal wie hoch das Potenzial des tweakens ist.
 
Ich schaue mir einfach Benchmarks an, weiß net wie du das so machst.. :D
Aus dem Test:

Und aus dem Test:

Da ist die 6900XT jedenfalls noch mit aufgelistet.
Und das ist der Durchschnitt, klar kann die Karte auch mal langsamer sein (+30%), sie kann aber auch gerne mal 50%+ schneller sein als eine 6900XT.

Selbst im PCGH GPU Index kommt man wohl leicht über 40% Plus raus ;)

Ok. Ich glaube auch es bringt nichts jetzt über ein paar % zu streiten. Für mich ist die einzige Alternative dennoch nur die 4090.
 
Ok. Ich glaube auch es bringt nichts jetzt über ein paar % zu streiten. Für mich ist die einzige Alternative dennoch nur die 4090.
Ich muss sagen von der 6900XT zur 7900XTX gewechselt. Es langt... man merkt den Unterschied und ja ich habe auch so gehadert wie du. Wenn man etwas undervoltet ist sie nochmal gutes Stück schneller habe ja hier im Forum schon Cyberpunk Werte mit Raytracing der 3090 gepostet mit undervolting/oc.

Mein Problem ist einfach die RTX 4090 ist ebenfalls einfach zu langsam für Raytracing in meiner Auflösung.
Und wenn ich mit Upscaling arbeiten muss dann reicht die XTX auch locker...
RAM ist jedenfalls genug vorhanden für hohe Auflösungen!
 
Ich muss sagen von der 6900XT zur 7900XTX gewechselt. Es langt... man merkt den Unterschied und ja ich habe auch so gehadert wie du. Wenn man etwas undervoltet ist sie nochmal gutes Stück schneller habe ja hier im Forum schon Cyberpunk Werte mit Raytracing der 3090 gepostet mit undervolting/oc.

Mein Problem ist einfach die RTX 4090 ist ebenfalls einfach zu langsam für Raytracing in meiner Auflösung.
Und wenn ich mit Upscaling arbeiten muss dann reicht die XTX auch locker...
RAM ist jedenfalls genug vorhanden für hohe Auflösungen!

Konntest du mal einen 3D Mark Screenshot deiner optimierten 7900XTX posten? Was geht da noch?
 
Dann erhelle mich doch mal, auf was ich als 6900xt User upgraden soll, nachdem nun fest steht das FSR3 zwar auf RDNA2 irgendwie laufen wird, ohne HYPR-RX aber nicht wirklich nutzbar ist. Auf eine 7900XTX? 25% mehr Leistung bei 25% höheren Verbrauch? Nein danke.
Natürlich machst du ein Upgrade auf eine RTX4090, was für eine Frage:P:D

Gruß
 
Die 7700XT hat also ihr soll erfüllt.
Ach wirklich? Reicht das jetzt plötzlich, nachdem bei Nvidia so viel an der 4070 kritisiert wurde? Das Soll erfüllt? Naja.
Obwohl..., eigentlich haben sie es erfüllt, nur wurde die 4050 (Ti) zur 4060 (Ti) umgelabelt, weshalb bei PCI-E3.0 Gleichstand gilt.
Die 4060 Ti liegt doch bei ner 3070. Hat sie ihr Soll dann nicht erfüllt?
Ansonsten wäre alles gut und auch die Mindestgrenze von 30% geschafft.
Wird die 7800XT, noch die 7700XT schaffen das.
Rechne mit maximal 25% bei der 7700XT und 10% bei der 7800XT, Raster.
 
Für mich zählt Stock vs Stock. Rumbasteln kann man dann immer noch. Aber wenn mich ein Produkt Stock nicht überzeugt kaufe ich es auch nicht, egal wie hoch das Potenzial des tweakens ist.
Damit man Karten einfach vergleichen kann, ist das ok.

Aber UV wird immer wichtiger, da die Karten immer mehr verbrauchen, wie auch CPUs.
Ich habe ein 12m² Zimmer ohne Klima und 100W Abwärme von dem PC kann im Sommer 1°C höhere Temperaturen im Zimmer bedeuten. Ich hatte dieses Jahr 37°C (+6°C zu draußen) spitze im Zimmer , während ich zockte... Mit einer GPU die undervoltet ist. :D
Im Winter kann ich dann des öfteren die Heizung aus lassen...

Ich habe mich auch für die 4090 entschieden, eben WEIL man die so gut von 450W auf unter 300W stellen kann.
Ich kam von einer 3090 die trotz UV an den 350W festgenagelt war.
Ein Baldurs Gate 3 zocke ich derzeit mit DLSSQ und 180W max mit der 4090 in 4k mit 120FPS... Ohne DLSS ist es bei 300W. Ohne UV wäre das auch mehr. DLSS und FG sind wahre FPS Boosts UND Stromsparer.
 
Konntest du mal einen 3D Mark Screenshot deiner optimierten 7900XTX posten? Was geht da noch?

Meine Werte werden generell durch den 7600X ausgebremst - benötige ja fast keine CPU Leistung bei 10320x1440...
Bin immer GPU Bottlenecked.
Aber hier sind welche, es geht aber noch mehr da ich nicht bis an das maximum gegangen bin bei der 7900XTX.
Stelle eigentlich 1050mV bei 3Ghz Boost Takt ein. Das läuft ohne Probleme.
Für Star Wars Jedi Survivor reicht es dann mit ca 40 FPS Nativ auf 10320x1440 und aktivierten Raytracing.
(also mit FSR bist du mehr als deutlich im grünen Bereich)
 
Ja, von daher ist die 4090 für mich die einzig brauchbare Karte dieser Generation. 4080 hat mir zu wenig VRAM. mit 20GB wäre die auch eine Überlegung wert gewesen.


Keine Ahnung wie du auf die 43% kommst. In den meisten Tests sind es um die 30%.
Genau zu wenig Vram, was denn sonst.
Nur gut das Digital Foundry was anderes sagt.

Wenn AMD 128Gb liefern würde, würdest du doch sagen 64Gb sind mir zu wenig.
Das Nv die bessere Komprimierung hat und das bessere Upscaling spielt für dich anscheinend keine Rolle.
Denn 12 Gb sind mehr bei NV wie 12Gb bei AMD sogar deutlich.

Dazu kam noch Nv frisst soviel Strom, jetzt sagt man hier aber nicht AMD first soviel Strom.


AMD ist abgehängt worden, umso mehr die Spiele modern Technik iEnsätzen umso mehr Vorteile hat NV.

Wie war das damals die 390X die hat 8Gb das ist ein Kaufgrund. Die 8Gb brachten ihr gar nichts, Hauptsache man
hat irgendwo eine höhere Zahl. Aber AMD hatte damals sogar noch größere Probleme mit Kompression, das 4Gb Karten von AMD
Probleme bekommen haben gegen die 3GB auf der 780. Das wollte man aber damals nicht Ansprechen, denn war ja nicht so das T
 
3D mark heist gar nix..
da knackt ne Optimierte 6800xt auch eine Stock RTX3090ti ohne Probleme.. in wirklichkeit sind da denoch einige Prozentpunkte und FPS in Echten Spielen dazwischen weil die AMD Karten ihre Leistung nicht auf die Straße bringen..


Fsr 3 wird auch fast niemand nutzen weil es wahrscheinlich nicht gut werden wird, ich persönlich halte von Framegeneration zum Beispiel gar nichts in der ersten Generation wie sie gerade ist. Das ist für mich kein Argument. Wer es noch gar nicht probiert hat kann dazu gar keine Meinung haben.

Wäre ich mir gar nicht so sicher..
es gibt leute die Spielen mit ner Playstation an nem großen Fernseher mit nem Inputlag von gut und böse.. mit unter 60fps upgescalet aus 720p und haben spaß am Spielen.


Nur mal so zur info.. bis vor 2-3 jahren waren sowohl Nvidia als auch AMD bei ihren Treibern standartmässig auf ner Flipqueuesize/prerenderred Frames wert von 3!
und bis auf eine Handvoll Esport Freaks hats auch keinen gejuckt oder hats gemerkt.
und dann wird hier immer wieder die Latenzkeule ausgepackt..
pff also bitte




Wie gut es wird.. und ob sie mit Nvidisa DLFG konkurieren können.. werden wir sehen.. ich hab da zwar auch meine zweifel bezüglich Qualität... aber Probieren sollte man es. .und auf entsprechende vergleiche warten.
Denn gerade Nvidias DLFG ist ne super Sache die extrem von vielen Skeptikern Schlecht geredet wird...
bäh fakeframes blabla..
mal selber ausprobieren und damit zocken!
ich hab das ganze mittlerweile in mehreren Spielen getestet und in keinem hab ich auffällige artefakte oder Inputlatenz bemerkt... ich halte mittlerweile sehr viel von der Technik..
vielleicht nicht um aus krüppeligen 30 FPS ein Game überhaupt Spielbar zu machen..
aber um ein Spiel was im mittleren FPS bereich (60-100fps) so hoch zu Boosten das ein High Refresh Display (144+hz) ausgelastet wird ist es einfach genial

oder nehmt ihr alle eure Monitore mit ner Zeitlupenkamera auf um Artefakte sichtbar zu machen?
 
Ach wirklich? Reicht das jetzt plötzlich, nachdem bei Nvidia so viel an der 4070 kritisiert wurde? Das Soll erfüllt? Naja.

Die 4060 Ti liegt doch bei ner 3070. Hat sie ihr Soll dann nicht erfüllt?

Wird die 7800XT, noch die 7700XT schaffen das.
Rechne mit maximal 25% bei der 7700XT und 10% bei der 7800XT, Raster.
Du bist ein Toxischer Zeitgenosse. Arguing for the sake of arguing?!

Die 4070 kostet auch um einiges mehr als die 7700XT, da sind die 12GB viel einfacher zu verkraften und auch angemessen, mehr ist immer gut.

Aber für 16 GB muss man hier nur einen 50iger mehr in die Hand nehmen bei AMD. Bei Nvidia musst du dafür 600 weitere € auf den Tisch legen also ja die haben ihr Fett weg bekommen und das zu Recht, meiner Meinung nach sogar noch nicht genug. Von 700€ für die 3080 auf 1400€ für die 4080 zu gehen ist Geisterkrank. Dann auch noch nur 16Gb Vram ist sogar lächerlich. Wenn die Vorgen das ab 580€ lieferte UVP der Rx 6800.
Nur mal so zur info.. bis vor 2-3 jahren waren sowohl Nvidia als auch AMD bei ihren Treibern standartmässig auf ner Flipqueuesize/prerenderred Frames wert von 3!
und bis auf eine Handvoll Esport Freaks hats auch keinen gejuckt oder hats gemerkt.
und dann wird hier immer wieder die Latenzkeule ausgepackt..
pff also bitte
Das kannst du nicht vergleichen und mit über 60 FPS hast da auch nicht viel gemerkt. Bei über 80 und 100 FPS schon mal gar nicht. Der Unterschied bei Framegen ist erheblich höher vom Gefühl, her als würde man in Honig feststecken. Da bringen mir die 120 fps auch nichts aber das ist halt meine subjektive Meinung zu dem Feature.
 
Zurück