News Grafikkarte bei Mindfactory kaufen: Taktisches Warten oder keine Lust auf GPUs?

Irgendwann müssen sie ja mal günstiger werden. Wenn eine RTX 5080Ti 100% schneller ist als die RTX 3080Ti die ich seit einem Jahr besitze und nicht mehr als 1400 € kostet, bin ich wieder dabei. Ich habe das Geld jetzt lieber in eine 13. Generation Intel CPU nebst Plattform investiert.
 
Als jemand, dem vor kurzem die alte Grafikkarte gestorben ist, kann ich nur sagen, dass die derzeitige Situation frustrierend ist. Irgendwie kann man nicht gewinnen.
4090? Kranke Leistung, die ich aber nicht brauche. Außerdem gönne ich NVidia die Mondpreise einfach nicht.
7900XT(X)? Könnten echt eine feine Sache sein, wenn der hohe (Idle)-Verbrauch nicht wäre. Außerdem auch verdammt teuer.
4080? Gut, wisst ihr selber.
4070? Wieder NVidia-Preisaufschlag und wenig VRAM.
AMDs letzte Generation? Zieht auch Saft ohne Ende.

Es gibt keine Karte, die ich als vernünftigen Kompromiss sehe, zumal ich für die meisten auch ein neues Netzteil brauche. Es ist zum Mäusemelken.

Um das klarzustellen: also ist irgendwie eine Option, aber nichts davon ist eine geile Option, auf die ich Bock habe. Aber mich ewig mit einer P400 rumplagen will ich auch nicht.
 
Zuletzt bearbeitet:
Als jemand, dem vor kurzem die alte Grafikkarte gestorben ist, kann ich nur sagen, dass die derzeitige Situation frustrierend ist. ...
7900XT(X)? Könnten echt eine feine Sache sein, wenn der hohe (Idle)-Verbrauch nicht wäre. Außerdem auch verdammt teuer.
???, ... ne gute Custom 7900xt MERC für 799€ incl. TLoU ist doch net übertrieben teuer
(im MS)

Idle macht doch nur bei einigen ungünstigen MultiMoni-Konfigs noch Mehrverbrauch.
(vllt. mal die Monis in der Bekannschaft tauschen)

Eigentlich brauchts auf dem Desktop@Idle auch net 144Hz, vllt. reicht ne Kombi 120Hz+60Hz auch.
(im Game kann der große Moni ja weiterhin mit 144Hz laufen)
 
Zuletzt bearbeitet:
Ich habe ja auch "verdammt" teuer geschrieben ;) Zumindest halte ich 800 € für viel für eine Graka, die nicht mal das Topmodell ist. Unabhängig davon bleibt der hohe Stromverbrauch.
 
Welcher hohe Stromverbrauch?
In Games ist ja Jeder selbst verantwortlich, welches Fps-Limit er setzt.

ungebremst in CP2077 ohne RT:

Effizienz@CP2077-1440p_RToff.JPG


zu Idle hatte ich ja schon im Post oben was geschrieben, da kannste die Launchreviews net als Basis nehmen,
ist inzwischen deutlich besser


btw.
Über die Preise meckern und gleichzeitig nach der größten Graka geiern, das passt generell net zusammen.
Enthusiasmus kostet halt.(mindestens 999€ für die 7900xtx incl. TLoU)
 
Okay das musst du mir erklären warum enttäuscht ?
Ada ist nicht anderes als Ampere auf Steroiden, der Grundaufbau ist bei beiden identisch. Neben der obligatorischen nächsten Generation von RT- und Tensor Cores gab es verglichen mit Ampere nur mehr Shader, Takt und Cache. Nvidia ist letztendlich den Weg des geringsten Widerstands gegangen und das verdient keinen Applaus.

Dass die Effizienz so gelobt wird kann ich ebenfalls nicht nachvollziehen. Von Samsungs 8 nm auf TMSCs 4 nm ist ein Sprung von 2 bis 2,5 Nodes, das gab es meines Wissens nach noch nie. Die Effizienz von Ada kann somit als Mindestmaß bezeichnet werden was man bei einem derart großen Sprung erwarten durfte.

Sicher könnte man dahergehen und sagen "Mir doch egal woher die Leistung kommt, Hauptsache sie ist da". Mir ist es aber nicht egal und deshalb finde ich Ada enttäuschend. Blackwell als Ada Ablöse wird erst wieder interessant, komplett neue Architektur und nicht nur aufgewärmt + wahrscheinlich GDDR7.

Der letzte Punkt ist die große Beschneidung des großen Dies beim Topmodell. AD102 auf der 4090 kommt gerade mal mit 89% der aktiven Shader daher, der Rest wurde künstlich gecutet. Einen derart beschnittenen Chip gab es beim Topmodell noch nie - trotz Rekordpreise.
 
aktuell wäre die 6800xt@539€ interessanter bezgl. P/L, vor Allem wenn man TLoU mag
mit UVen und red. PL sicherlich net groß anders als ne nonXT beim Verbrauch, mit etwas Glück sogar effizienter

Das Angebot ist auf jeden Fall gut!

Effizienter als die 6800 kann ich mir nicht vorstellen. Ich habe oft um die 130 Watt Leistungsaufnahme für den Chip mit UV - noch etwas drauf für die Verlustleistung, Lüfter und VRAM und ich lande bei ca. 170 - 180 Watt.

Wenn ich aber bedenke, dass meine Karte vor 30 Monaten (!) gerade mal 160,- € mehr gekostet hat, als heute die "Superschnäppchen 6800 XT", finde ich deren Preis schon wieder eher meh.
 
Wenn ich aber bedenke, dass meine Karte vor 30 Monaten (!) gerade mal 160,- € mehr gekostet hat, als heute die "Superschnäppchen 6800 XT", finde ich deren Preis schon wieder eher meh.
Wer sich zum Anfang, bevor die Preise explodiert sind, eine RX 6800 schnappen konnte hat alles richtig gemacht.
Unter 200W Gesamtverbrauch und trotzdem sehr gute Leistung.
 
Der letzte Punkt ist die große Beschneidung des großen Dies beim Topmodell. AD102 auf der 4090 kommt gerade mal mit 89% der aktiven Shader daher, der Rest wurde künstlich gecutet. Einen derart beschnittenen Chip gab es beim Topmodell noch nie - trotz Rekordpreise.
Gute antwort.

Okay das kann ich nicht sagen ob ADA nur ein aufgeblasenes Ampere ist. Kannst du das mit Sicherheit sagen? Warum ist das Schlimm das Endeffekt zählt doch das Ergebnis? Pascal war auch nur ein aufgeblasenes Maxwell, war doch auch eine bombengeneration.

Das mit den nodes stimmt aber wir müssen auch bedenken das solche sprünge wie früher einfach nicht mehr so leicht zu bewerkstelligen sind und das eine moderne Gpu um einiges Komplexer ist als noch vor 10 jahren.

Neu ist relative jede Architektur basiert auf der vorherigen.

Mit der Beschneidung hast du vollkommen Recht. Aber hier sehen wir das Werk, wenn man nicht muss, muss man auch nicht. Wäre die 7900XTX so schnell wie eine 4090 bin ich mir sicher das Nvidia da mehr rausgeholt hätte. Wobei ich auch eine 4080TI noch erwarte und 4090 TI da bekommst du dann das, diesmla mit hoffentlich mehr leistung als letzte Gen.

Die TI haen immer 20-35% draufgelegt nur in der letzten gen hattten wir das mit den 5-10%. Hat mir nicht gefallen. Die 3070 TI war Absurd die 3090TI in meinen Augen auch wobei das ein Ada Testlauf war weil vemrutet wurde das Ada 600 Watt säuft falls das stimmt von damals. Gut was viele nicht wissen ist das eine 3070TI bei gleichen bedingungen beeseer mit einem vram Limit umgeht als eine normale 3070 aber sonst? Zu vernachlässigen. Die 3080TI hatte wenigstens 2 GB Vram mehr weil die 10% Leistung auch keine Bäume ausreißen.

Blackwell muss leider nicht gut werden ich befürchte das AMD mit Rfna 4 gerade mal so die 4090-TI erreichen wird. Also kann Nvidia machen was es will. Aber hier reden wir von Oben das muss ich ja nur bedingt auf die mitte auswirken :). eine 5070 mit der Leistung einer 4090 wäre schon Sagenhaft. Wobei ich eher 4080 Leistung erwarte was ja auch 50% sind.
 
Welcher hohe Stromverbrauch?
In Games ist ja Jeder selbst verantwortlich, welches Fps-Limit er setzt.

Was am FPS pro Watt Verhältnis auch nichts ändert. Sicher kann man eine stromhungrige Karte auf 60 FPS begrenzen, um den Verbrauch gering zu halten, aber dann hat man eben auch nur 60 FPS...

zu Idle hatte ich ja schon im Post oben was geschrieben, da kannste die Launchreviews net als Basis nehmen,
ist inzwischen deutlich besser

Naja was soll das denn für ein Tipp sein, dass man seine Monitore mit weniger Hz betreiben soll? Da gibt man viel Geld für eine GPU aus und muss Einschnitte in Kauf nehmen, die man sonst nicht einmal mit einer GT 1030 hätte...

btw.
Über die Preise meckern und gleichzeitig nach der größten Graka geiern, das passt generell net zusammen.
Enthusiasmus kostet halt.(mindestens 999€ für die 7900xtx incl. TLoU)

Die 7900XTX ist für mich keine Enthusiasten Karte, da die RT-Performance im Vergleich zu schlecht ist. Und RT wird immer wichtiger.
 
Wer sich zum Anfang, bevor die Preise explodiert sind, eine RX 6800 schnappen konnte hat alles richtig gemacht.
Unter 200W Gesamtverbrauch und trotzdem sehr gute Leistung.
Stock zieht die Karte 250 watt wovon sprichst du? Das habe ich mir gemerkt da 2080TI Verbauch bei leicht höherer Leistung wobei eine 2080Ti Oc gleichschnell ist fast bis auf ein paar Prozent. Es ist erstaunlich wie lange sich die Topkarten immer halten :). Gut zieht halt auch über 300 Watt mit Oc.
Die 7900XTX ist für mich keine Enthusiasten Karte
Da lege ich lieber noch 120€ drauf und hole die 4080 Die 120€ hast mit dem Strom wieder drin in 4 Jahren wenn nicht mehr wenn Undervolted. 4080 leistet Stock Leistung mit 220-250 Watt, da kommt noch DLSS hinzu und FG und bessere RT Leistung. Besseres Paket meiner Meiunug nach. Wäre die XTX bei 899€ könnte man drüber reden.
 
Stock zieht die Karte 250 watt wovon sprichst du? Das habe ich mir gemerkt da 2080TI Verbauch bei leicht höherer Leistung wobei eine 2080Ti Oc gleichschnell ist fast bis auf ein paar Prozent. Es ist erstaunlich wie lange sich die Topkarten immer halten :). Gut zieht halt auch über 300 Watt mit Oc.

Die RX6800 zieht mit Standardsettings in der Regel kaum mehr als 200 Watt. Mehr als 230 schaffte die Karte nicht mal im Gaming Maximum - z. B. hier: https://www.pcgameshardware.de/Rade...nchmark-Release-Review-vs-RTX-3080-1361423/4/.

In den meisten Spielen waren es ohne Undervolting ca. 170 - 180 W für den Chip, mit UV sind es ca. 50 W weniger. Das ist schon extrem sparsam. Da kommt die 2080 Ti im Leben nicht ran. Wenn ich es richtig in Erinnerung habe, lag die stock bei ca. 280 W...

Das ist auch mein Problem mit den ganzen neuen Karten. Die neue RTX 4000-Serie ist relativ effizient, insbesondere im Vergleich mit den neuen Radeons. Aber: eine RTX 4070 Ti hat grob 40% mehr Leistung, als meine 6800, kostet 25% mehr, als ich damals gezahlt habe (mit heutigen Preisen sogar über 70% mehr) und braucht mit Standardeinstellungen locker 20% mehr Strom, als meine Karte - ohne UV, weil das kann ich nicht vergleichen.

Das ist alles andere, als beeindruckend...
 
Ja Stimmt 220 watt Average circa. Ich bin wohl von Custom Karten ausgegangen da sind 230-280 keine Seltenheit.

2080TI Fe 250-260 Watt. Wenn wir schon die Referenz 6800 heranziehen dann auch hier.

Meinste? 4070 150 Watt(Gesamt) Pathtracing Cyberpunk spielbar. :)

Ada ist effizient nur hat Nvidia einfach reingeblasen. Eine 4090 wäre mit 250 Watt auch noch Primus. Oder eine 4080 mit 220 Watt. Die 4060 soll bei 120 Watt liegen was bei der Gtx 1060 liegt, das bei 3070 Performance circa das ist schon gut. Mit Undervolting hast du da die Leistung einer 2080 Ti mit unter 100(!) Watt.
Ada ist extrem effizient.

Zu Preisen sage ich nicht das soll jeder mit sich selber ausmachen. Ich werde niemanden verteufeln die über 2000€ für eine 4090 bezahlt haben. :) Have fun is all that matters.
 
Zuletzt bearbeitet:
also ihr gierige hersteller und schops abzocker, zeit das ihr mal wieder zu vernunft kommt, denn da geht noch viel mehr mit den tief preisen ;)
Es ist ja nun genauso gierig, etwas haben zu wollen, was man sich für einen gewissen Preis nicht leisten will.
Du weißt also ganz genau, wie sich der Hersteller fühlt...am Ende des Tages willst du möglichts viel Geld übrig haben...und der Hersteller eben auch.
 
Stock zieht die Karte 250 watt wovon sprichst du? Das habe ich mir gemerkt da 2080TI Verbauch bei leicht höherer Leistung wobei eine 2080Ti Oc gleichschnell ist fast bis auf ein paar Prozent. Es ist erstaunlich wie lange sich die Topkarten immer halten :). Gut zieht halt auch über 300 Watt mit Oc.
Ich hab doch geschrieben...unter 200W und trotzdem gute Leistung. Eine RTX 2080Ti und eine RX 6800 trennen gute 10%.
RTX 2080TI vs RX 6800.jpg

Es ist ja nicht so, dass man die AMD nicht optimieren kann....schon mit chilligen 125W TGP schnupft sie die RTX 2080TI.

125W.png

mit der TGP einer RX 6700 ist man schon wieder auf Augenhöhe einer stock RX 6800

158W.png
 
Zuletzt bearbeitet:
Ja aber wenn man so etwas sagt meint man gennerell Stock. :)

Ja nimm der 2080TI 10% weg und die läuft auch mit 150 Watt.

Welchen Takt hattest du da mit 125 Watt und mv? Wundert mich nicht die 6800 war die effizienteste Karte in der Letzten Generation also das was die 4080 jetzt ist.
 
aktuell wäre die 6800xt@539€ interessanter bezgl. P/L, vor Allem wenn man TLoU mag
Bei Nvidia gibt es Diablo 4 dazu. =)
Es ist ja nicht so, dass man die AMD nicht optimieren kann....schon mit chilligen 125W TGP schnupft sie die RTX 2080TI.
Damit nimmst du der GPU etwa die Hälfte an Energiebudget.
Damit ist keine 2080Ti Leistung möglich, erzähl mir nichts von weißen Würsten. ;)
 
Zuletzt bearbeitet:
Zurück