Special Geforce RTX 4070 Super im Test: Hat AMDs Radeon RX 7800 XT ausgedient?

Wird spannend wenn sich die gerüchte bewahrheiten laut MLID das Amd nächste gen nur mehr die mittelklasse im GPU markt bedienen will. Dann können wir uns schonmal auf tolle preise im high end einstellen :daumen:
 

Anhänge

  • 1000011204.jpg
    1000011204.jpg
    261,2 KB · Aufrufe: 391
Zuletzt bearbeitet:
Memory Usage ≠ Memory Allocation. 15 GB belegt bedeutet nicht, dass diese auch benötigt werden.
Zwischen Radeon und GeForce gibt es oft einen großen Unterschied was V-ram Belegung betrifft.
Ich habe auf meiner 12GB RTX 4070 in dem Szenario nur 11GB belegt.:-)
Halt doch bitte mal die Füße still! Jemals darüber nachgedacht, dass der Verbrauch bei manchen Usern einfach keine Rolle spielt?
Wenn man darüber nachdenkt möchten Besitzer von Karte XY nicht viel über Nachteile hören und fokussieren sich primär auf die Vorteile.

Das sind bei Nvidia meistens Verbrauch, DLSS und RT, bei AMD meistens Preis und Speicher.
Wenn Nvidia relativ günstige Karten bringt zur UVP bringt, sind die PCBs schlecht und sterben nach 3 Jahren.
Etwas undifferenziertes kramt man schnell hervor. Die RT Effizienz ist bei NV rund 70% höher, Raster etwa 20%, kann man als Argument bestätigen.

Das wäre genauso glaubhaft wie deine anderen Märchen.
Märchen gibt es von Cleriker denke ich viele. Als ich im Oktober zuletzt von ihm las, meinte er wäre gar nicht zu Hause, könne nicht spielen. Aber dann hat er plötzlich RTX 4080 und 7900XTX.
@Cleriker Mach mal ein Bild von beiden Karten.:-)
 
Zuletzt bearbeitet:
kommt immer darauf an was man in Avatar einstellt. Gerade mit FSR3 + FG ist auch AMD relativ gut aufgestellt in Avatar.
Aber nun kommst du wieder mit Dingen die die meisten nicht nutzen.
Mein Beispiel war z.b. 1080p, dort wirste sicherlich NICHT mit FSR Performance spielen...
Und FG ist bei AMD immernoch broken. Es kann schnelle Kameradrehungen gar nicht, in dem Moment schaltet FSR-FG aus. Das sowas ständig passiert, hat man die ganze Zeit starke FPS fluktuationen und das ist nicht angenehm zu spielen.

Siehe hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Was ja in garnicht so vielen Spielen zum Tragen kommt.
Selbst wenn es 20 Stück im Jahr sind, es kommende Tausende andere raus, die ohne Probleme laufen.
Und wenn gerade von jemanden die Lieblingsspiele dabei sind?
Dazu ist ja auch die Auflösung und die Einstellungen wichtig.
Das stimmt. Aber manche haben halt höhere Ansprüche.
Als Beispiel habe ich neulich Horizon Zero Dawn in UHD mit hohen Einstellungen angetestet.
Waren ganze 6-7GB die es belegte.

Du wirfst hier ein 7 Jahre altes Spiel in den Ring, welches für die Playstation 4 entwickelt wurde. Die Probleme treten (*perspektivisch) mit neuen Spielen auf...
Wollte ich auch schon schreiben. Das Spiel ist ja schon etwas älter.

Noch mögen 12 GB VRAM für die meisten Spiele in WHQD ausreichen.
Aber langfristig immer weniger.
 
Noch mögen 12 GB VRAM für die meisten Spiele in WHQD ausreichen.
Aber langfristig immer weniger.

Was heißt denn "langfristig"? Wenn die heute gekaufte 4070 Super 3-4 Jahre im Rechner steckt, kann man damit dann keine Spiele mehr spielen? Oder nur noch mit Texturen auf "Low"? Ich denke nicht.

Wer eine Karte über 4 Jahre betreiben möchte muss sowieso Abstriche machen, da reicht entweder die Rohleistung oder der VRAM nicht mehr für "alles Ultra". Die meisten hier im Forum rüsten doch eh früher auf, keine Ahnung wieso hier immer so ein Fass aufgemacht wird.
 
Hätte deine 4070 mehr VRAM, würde sie auch mehr belegen.;)
Der Vram hat stets zwei Bereiche, einen zum hinterlegen von Daten und einen weiteren der als Streamingpuffer dient. Speicherallocation ist wesentlich komplexer als mancher das hier darstellt zwischen allocated und bound. Den zweiten Bereich haben die wenigsten auf dem Schirm, die NV Karten belegen diesen größer. Mit den richtigen Tools kann man den auch auslesen, ansonsten ist der nicht sichtbar.
hidden Memory.JPG
WD Memory.JPG

Was heißt denn "langfristig"? Wenn die heute gekaufte 4070 Super 3-4 Jahre im Rechner steckt, kann man damit dann keine Spiele mehr spielen? Oder nur noch mit Texturen auf "Low"? Ich denke nicht.

Wer eine Karte über 4 Jahre betreiben möchte muss sowieso Abstriche machen, da reicht entweder die Rohleistung oder der VRAM nicht mehr für "alles Ultra". Die meisten hier im Forum rüsten doch eh früher auf, keine Ahnung wieso hier immer so ein Fass aufgemacht wird.
Also meine 6800XT läuft nun schon drei Jahre und wird auch sicher noch ein weiteres im Rechner laufen, danach geht die GPU weiter an nen Kumpel oder in nen Rechner der Kinder wo diese mal geschmeidige weitere 3 Jahre verbringen wird.
 
Zuletzt bearbeitet:
gute Werte der Karte, bis auf den Preis. Es gilt aber trotzdem: Spieleproduzenten müssen auch ihre Produkte optimieren, damit nicht so hohe Anforderungen an die Hardware/KI entstehen.
 
Also meine 6800XT läuft nun schon drei Jahre und wird auch sicher noch ein weiteres im Rechner laufen, danach geht die GPU weiter an nen Kumpel oder in nen Rechner der Kinder wo diese mal geschmeidige weitere 3 Jahre verbringen wird.

Genau das meine ich doch. Du nutzt sie 4 Jahre und dann kommt was Neues. Kein Hardcore Enthusiast, eher so wie ich, alle 2 Gens wird aufgerüstet. Und da reicht der VRAM dann eben meistens doch. Meine 3080 10 GB hat noch nicht gemuckt bei meinen Spielen.

Und Deinem Kumpel wird er auch reichen, wenn er Deinen alten Kram bekommt ist er noch weniger Enthusiast und zockt garantiert nicht auf 4K mit Ultra Details und 4K Texture Packs.
 
Zuletzt bearbeitet von einem Moderator:
Genau das meine ich doch. Du nutzt sie 4 Jahre und dann kommt was Neues. Kein Hardcore Enthusiast, eher so wie ich, alle 2 Gens wird aufgerüstet. Und da reicht der VRAM dann eben meistens doch. Meine 3080 10 GB hat noch nicht gemuckt bei meinen Spielen.

Und Deinem Kumpel wird er auch reichen, wenn er Deinen alten Kram bekommt ist er noch weniger Enthusiast und zockt garantiert nicht auf 4K mit Ultra Details und 4K Texture Packs.
Ja verstehe deine Argumentation, ich wollte lediglich verdeutlichen dass auch Enthusiasten (zu denen ich mich mal noch zähle) eine Karte nicht nach 2 Jahre ausrangieren (zumindest nicht alle). Die Karte geht dann auch meist einfach weil vom Main was neues "nachrückt"
 
Da 99% der Leute zu faul sind den Verbrauch und die Stromkosten über ein paar Jahre mit einzuberechnen, oder das einfach gekonnt ignorieren, muss AMD auch nichts an den Preisen machen. Vom reinen Anschaffungspreis her ist AMD ja schon günstiger, und mehr scheint die meisten Leute auch nicht zu jucken.

genau den gedanken hatte ich, da ich demnächst upgrade.

ne 7800XT ist ~100-120€ Günstiger (aktuell). Nimmt man im durchschnitt 40 Watt mehr Verbrauch, was jetzt sehr gering erstmal klingt und rechnet es durch, werden aus 100€ am Ende der GPU-Lebenszeit schnell nur noch ~40€

sagen wir 3 Jahre. Bei jemanden der viel online shooter oder MMOs spielt kommen gut 1000 Stunden im Jahr zusammen. Wenn nicht mehr. 1kwh liegen so bei durchschnittlichen 45cent laut google. 1000x40 Watt=40kwh * 3 Jahre = 120kwh * 0.45cent = 54€

und das nur fürs gaming.. afaik zieht die 7800XT auch bei allen anderen Dingen mehr als die 4070s. Für das bissle mehr Geld kann ich bei der Nvidia aber mal RT anmachen, ohne das die FPS in die 20iger tanked.
 
Und wenn gerade von jemanden die Lieblingsspiele dabei sind?
Dann stellst du Einstellungen runter oder rüstest auf.
Nichts was viele Leute nicht seit Jahrzehnten machen.
Das stimmt. Aber manche haben halt höhere Ansprüche.
Die werden dann meist auch mehr ausgeben.
Ist halt wie mit vielen Dingen im Leben.
Wenn dem nicht so wäre, hätte wir alle die gleichen Sachen an, würden das gleiche essen etc.
 
Jetzt gibt es die erste 4070 schon für 549€! Lohnt es sich da wirklich 659€ für die Super auszugeben ???
Ich denke nicht!
Die Karten haben die gleichen Stärken und Schwächen. RTX 4070 für 550 oder RTX 4070S für 650 (muss noch passieren) nimmt sich zu wenig, um lange darüber nachzudenken. Größere Sprünge beim Potenzial und Preis gibt's erst bei der RTX 4070 TiS am 24. Januar.

MfG
Raff
 
Letzte Gen war FPS/Watt suuuper wichtig hier im Forum. Da lag Nvidia ungefähr (etwas weniger) hinter AMD zurück und es war DAS ARGUMENT. Daher finde ich es in Ordnung wenn das Argument nun umgekehrt auch gilt.
Das ist grundsätzlich ja auch okay. Ich bin jetzt ein Beispiel für Typen die mehr basteln als spielen, aber hier gibt's ja auch die Gegenbeispiele. Also Typen die drei bis vier Stunden täglich spielen, im Jahresschnitt. So ein User merkt das schnell.
Nur darf man diese, ich nenns mal Fähnchenhaltung, nur denen vorwerfen die es auch in der letzten Gen gefragt haben und nicht allen aus dem vermeintlich gegenteiligen Lager. Dazu kommt noch, dass die welche das in der letzten Gen so gepriesen haben, das eventuell nur getan haben weil es noch eine Generation davor der anderen Seite wichtig war. Sprich, wir drehen uns damit nur im Kreis.

Ich gehöre zu denen die immer als sie noch unterstützt wurden, auch multi GPU Systeme verbaut hatten mit bis zu vier gleichen Grafikkarten. Mir war und ist der Stromverbrauch meiner Katzen schon immer wurscht gewesen. Nun gehöre ich aber laut Meinung bestimmter User hier zur roten Fraktion, einfach weil ich nicht der Meinung bin, dass meine 4080 alles viel besser machen würde, als meine 7900XTX. Dennoch wird dieses Argument, der Verbrauch sei ja so wichtig gewesen, auch mir vorgeworfen. Genau sowas, müssen wir ändern. So lange einzelne User aber immer wieder alles und jeden über einen Kamm scheren, so lange können wir uns auch gegenseitig immer wieder die gleichen Vorhaltungen machen. Bringen tut's aber nicht und alle haben gleichermaßen unrecht.
 
Zuletzt bearbeitet:
Zurück