GPU Wechsel RX7800XT zu 4070 dämlich?

Schön und gut aber wie kannst du deinen Augen nicht vertrauen?

Mir geht es wahrlich nicht um das Geld sparen, wenn wer sagt 40 Watt oder 150 Watt um es überspitzt zu formulieren. Aber ka, ich wende das an was ich überall anwende wenn ich etwas kaufe man vergleicht anbieter und bei Gpus haben wir nun einmal nur AMD und Nvidia. Intel zähle ich da noch gar nicht dazu da einfach die Power fehlt, für meinen Geschmack.

Also bleibt Amd und Nvidia zum vergleich. Wenn ein Produkt mit identischer Leistung beider parteien eine mehr Watt dafür braucht komplett egal warum weshalb oder wieso. Dann ist das nun einmal ein Negativ Punkt. Klar für manche ein sogenanntes non issue. Aber ich gehe auf alle punkte ein und Nvidia hat nur 1 schwäche das ist der Vram :ka: der komplett überblasen wird im vergleich zu den vielen negativ punkten bei amd karten. Soll man echt wegen lächerlichen 50€ auf ein Produkt gehen das viel mehr schwächen hat? Das hat mit klug einkaufen nichts mehr am Hut. Schon gar nicht wenn wir von Produkten über 500€ sprechen. Bei Gpus von 200€ sind 50€ viel hier aber nicht einmal 1/10.

Weil du schreibst wie ein alter Sack deswegen Opa kennt man einfach ;).

Ja die Hellhound ist leise die ist aber auch die, die ich nicht hatte und mir ging es da um was ist leiser 200 watt oder 260 Watt? Ja klar können 200 watt lauter sein bei einer bescheidenen kühlung aber selbst die Palit Dual 4070 ist leise:ka:. Aber darum gings es mir nicht sondern generell weniger watt sind meistens leiser logisch ne? Ich uv jede meiner karten. Die 4060ti die gerade kommt zu mir was wird die laufen? 110 watt bin gespannt :D wäre krass bei fast 2080 ti level. (hab die karte um 390€ bekommen die 16gb version frag nicht ...):D just for fun gekauft.

Preis Leistung ist naja gut und schön. Ich zocke viel Warhammer 3 und das Spiel fordert Karten extrem viel ab da sieht auch eine 4080 oft aus wie eine Full Hd Karte von Früher in 4k. Wenn wer in 5 Jahren 5k Stunden zockt, hatte dann das Produkt mit 270 Watt das 50€ weniger gekostet hat bei der Anschaffung, war das dann tatsächlich ein besseres Preis Leistungsverhältnis? Ich denke nicht.

Klar wer nur ein paar srtunden zockt in der Woche da mag es egal sein aber ich geh da von mir aus und ich nehme an in einem Pc Gamer Forum werden viele auch viel mit dem Hobby an Zeit zubringen wenn man schon 1600€ für eine Karte zahlt die hier die Liste anführt^^.

Preis Leistung da fehlt ja nicht nur das bissl weniger an Strom sondern Features und FSR ist nun einmal erbärmlich im gegensatz zu Dlss. Alan Wake 2(eigentlich jedes spiel das beide unterstützt) nehme ich Dlss Performance jederzeit gegen FSR Qualität. Da habe ich dann mit der Karte die 50€ mehr gekostet hat um 50% mehr an Fps bei gleichzeitig besserer Bild Qualität und die Leute wollen erzählen AMD hat P/L? Das mag zwar gegolten haben in zeiten wo es nur Leistung gegeben hat und sonst nichts vielleicht noch vram und wenn ich RT anmache dann 2-3 fache Leistung. Also braucht mir keiner kommen mit Peis Leistung denn auch da fürt Nvidia mit abstand wenn man alles einkalkuliert, was schon witzig ist denn die preise sind ja salzig hoch. Verstehe nicht warum man sich eine Amd karte kaufen soll es gibt nicht einen grund wenn man klug einkaufen will. Außer unter bestimmten umständen wie Rt mir egal und ich eh nur esport zocke klar dafür ideal. Aber wie gesagt erwarte ich das in diesem Forum nicht primär. Sondern spieler die die techniken auch zu schätzen wissen.:ka::daumen:


Übrigens eine 7700XT hat mitunter einer der schelchtesten P/L Verhältnisse am Markt da wär ja noch eine RX6800 gescheiter gewesen. Außer du hast da die 8 mit der 7 vertippt. Wobei Karten die RT nicht können man kaum von gut sprechen kann unabhängig von Raster Zeug. JEDES NEUE GAME HAT RT solange nicht Indy und an uralter engine gebunden. Verflucht sei warhammer, dx 11 kein DLSS das wäre ein lebensretter dort aber hilft nicht. ^^
 
7700XT, war 100€ billiger als ne 7800XT.
Da ich zur Zeit nur Rocket League spiele, reicht die da locker für 300-400fps und praktisch unhörbar dabei.

Aber zum Thema.
Bei 2 Stunden die Woche und praktisch gleicher Rasterleistung, sind selbst 70W mehr im Prinzip egal.
Die beiden Karten vergleiche ich da, weil die Asus in etwa so leise ist wie die Hellhound.
Kostet aber 140€ mehr.
Ne Palit 4070 Dual ist definitiv nicht leise.
1600rpm und 36dB sind einfach deutlich lauter als ne Hellhound mit 800rpm und 23dB.

Erst mit RT macht die 4070 deutlich mehr Sinn, da sie dann etwa doppelt so schnell ist.
 
Ist es jetzt "woke" andere Leute als "Schwurbler" zu bezeichnen, wenn einem die Meinung nicht passt oder die Argumente fehlen ? Schon auch irgendwie recht (s) extrem, oder etwa nicht ? ;-)

@Sebbi12392

Warum soll es dämlich sein, wenn du Raytracing nutzen möchtest ? Die RTX 4070 sollte jetzt auch nochmal günstiger werden, wenn die Super Karten raus kommen. Evtl findet sich dann jemand auf dem Marktplatz, der die Karte tauschen möchte ? Für die 7800XT spricht eigentlich nur mehr VRAM alles andere (Raytracing, Upscaling, Effizienz) macht Nvidia deutlich besser ...
 
Zuletzt bearbeitet:
Ich würde es nicht machen, ich habe aber auch eine 4070 und bin zufrieden. Eine 7800XT nimmt sich in der Leistung nix, hat 16GB und ja, sie braucht etwas mehr Leistung. Wenn Du die 7800XT gut verkaufen kannst und die Karte viele Stunden an Tag auf Höchstleistung läuft, mag sich das rechnen. Kann man machen.

Spätestens, wenn danna ber die 12GB der 4070 in neuen Spielen vollaufen, wirst Du wieder sauer sein. Ich z.B. ärgere mich, eine 4070 gekauft zu haben und hätte lieber eien 7800XT. Triebfeder ist aber mein G-Sync Monitor, der mit Freesync nix anfangen kann. Ansonsten hätten wir tauschen können. :)
Tauscht doch einfach :ugly:
 
7700XT, war 100€ billiger als ne 7800XT.
Da ich zur Zeit nur Rocket League spiele, reicht die da locker für 300-400fps und praktisch unhörbar dabei.

Aber zum Thema.
Bei 2 Stunden die Woche und praktisch gleicher Rasterleistung, sind selbst 70W mehr im Prinzip egal.
Die beiden Karten vergleiche ich da, weil die Asus in etwa so leise ist wie die Hellhound.
Kostet aber 140€ mehr.
Ne Palit 4070 Dual ist definitiv nicht leise.
1600rpm und 36dB sind einfach deutlich lauter als ne Hellhound mit 800rpm und 23dB.

Erst mit RT macht die 4070 deutlich mehr Sinn, da sie dann etwa doppelt so schnell ist.
Laustärke ist subjektiv ich finde 36 db nicht laut. Wer mal ne referenz vega hatte weiß was laut ist. ^^ Nein da haben wir es schon gut mit heutigen Karten. Das was Heute als laut gilt ist eigentlich schon ziemlich leise im gegensatz zu früher. Wie gesagt das ist stock mit Uv geht da einiges :).

Für Rocket League braucht man definitiv keine 7700xt ^^ naja für die 100€ hast 4gb vram und mehr leistung bei nicht viel höherem verbrauch. Hast du einen 500hz monitor? Wäre mal interessant ich kenne nur bis zu 240hz. Wobei der sprung von 140 zu 240 schon recht klein ist.

imo ist die 4070 eigentlich immer vorzuziehen^^. Was macht der TE jetzt eigentlich :D :P
 
Laustärke ist subjektiv ich finde 36 db nicht laut. Wer mal ne referenz vega hatte weiß was laut ist. ^^ Nein da haben wir es schon gut mit heutigen Karten. Das was Heute als laut gilt ist eigentlich schon ziemlich leise im gegensatz zu früher. Wie gesagt das ist stock mit Uv geht da einiges :).
Siehst du, 36dB oder aber auch eher 1600rpm von nem 100mm Lüfter sind nicht leise.
Für Rocket League braucht man definitiv keine 7700xt ^^ naja für die 100€ hast 4gb vram und mehr leistung bei nicht viel höherem verbrauch. Hast du einen 500hz monitor? Wäre mal interessant ich kenne nur bis zu 240hz. Wobei der sprung von 140 zu 240 schon recht klein ist.
Nein, 175Hz OLED, da geht es auch eher darum, wie das Spiel selber läuft bzw die Engine.
Mehr als 240Hz gibt es übrigens schon lange.
Mal als Beispiel.
Nicht nach drei Zeilen aufhören, bis zum letzten Satz lesen. Oder wir tauschen auch die Monitore, aber meinem mit 24-165 Hz gebe ich ungern für einen Freesync Monitor her, denn ich komme in Spielen unter 30FPS
Dir ist schon bewusst, das ein adaptive sync Monitor mit 48-175Hz Range wie bei mir, runter bis 1fps anpasst?
Welcher Gsync Monitor auch immer 24-165Hz haben soll.
 
Na gut. Mit ein bisschen UV geht sie jetzt auf 215 Watt. In Davinci Resolve halt Kurzfristig auf 300 beim rendern aber na ja. Also bleibt die Karte vorerst drin da sie mir bis auf den Verbrauch extrem gut gefällt. Ist nämlich z. B. unglaublich leise was ich nicht dachte da sie nur einen 2 Slot Kühler hat.
Ich wart dann mal voraussichtlich bis zu Nvidia Blackwell ab. Dann haben die 70er Karten hoffentlich auch 16GB VRam.
Man darf ja noch träumen. Danke.
 
Zuletzt bearbeitet:
Selbst wenn es 100W sein sollten. Das macht den Kohl auch nicht fett.
Wenn einem der VRAM ausgeht, was bei 12GB nun mal schneller geht als man denkt bringt einem die Ersparnis nüscht.

Dir ist schon bewusst, dass 12GB auf einer Ada Karte aufgrund der besseren Speicherverwaltung etwa 13,5GB auf einer RDNA3 entsprechen? Dem zu Folge liegt der effektive Unterschied in der Speicherausstattung gerade mal bei 2,5GB.

Die 12GB auf der RTX 4070 sind für WQHD oder niedrigere Auflösungen ausreichend und das wird sich so schnell auch nicht ändern. Dafür hat men dann aber auch DLSS und die deutlich bessere RT-Performance sowie um Welten bessere Effizienz.
 
Dir ist schon bewusst, dass 12GB auf einer Ada Karte aufgrund der besseren Speicherverwaltung etwa 13,5GB auf einer RDNA3 entsprechen? Dem zu Folge liegt der effektive Unterschied in der Speicherausstattung gerade mal bei 2,5GB.
2,5GB ist mehr als ne GTX 680, das ist n ganzes Battlefield 4 nebenbei, das sollte man nicht unterschätzen.

Das ist kein "gerade mal", das sind bei Nvidia mehr als 100€ Aufpreis. (Siehe 3080 vs Ti.)
 
2,5GB ist mehr als ne GTX 680, das ist n ganzes Battlefield 4 nebenbei, das sollte man nicht unterschätzen.

Battlefield 4 ist 10 Jahre alter Kram, die GTX 680 ist sopar noch älter.

Das ist kein "gerade mal", das sind bei Nvidia mehr als 100€ Aufpreis. (Siehe 3080 vs Ti.)

Dann müsste die 4060Ti 16GB ja über 400 Euro teurer sein als die 4060Ti 8GB. Schon ziemlich unfundiertes Gerede von Dir, v.A. weil die 3080Ti auch deutlich schneller ist als die 3080.
 
Zurück