News Grafikkarte bei Mindfactory kaufen: Taktisches Warten oder keine Lust auf GPUs?

Das ist alles andere, als beeindruckend...
Kommt darauf an welchen Bereich man vergleicht.
Mir war der Bereich unter 200W wichtig und da hat die RX 6800 damals geliefert.
Für das 150W Ergebnis meiner RTX 4070TI muss ich bei der RX 6800 schon ~300W anlegen.

TS 150W.png
Damit nimmst du der GPU etwa die Hälfte an Energiebudget.
Damit ist keine 2080Ti Leistung möglich.
Wieso nicht?
Meiner RTX 3070 habe ich bei weiten weniger Saft zugestanden...mit ~145W in jedem Test so schnell wie die von PCGH getestete stock RTX 3070.
 
Zuletzt bearbeitet:
Welcher hohe Stromverbrauch?
In Games ist ja Jeder selbst verantwortlich, welches Fps-Limit er setzt.

ungebremst in CP2077 ohne RT:

Anhang anzeigen 1426615

zu Idle hatte ich ja schon im Post oben was geschrieben, da kannste die Launchreviews net als Basis nehmen,
ist inzwischen deutlich besser


btw.
Über die Preise meckern und gleichzeitig nach der größten Graka geiern, das passt generell net zusammen.
Enthusiasmus kostet halt.(mindestens 999€ für die 7900xtx incl. TLoU)
Wenn ich das für CP 2077 aurechne mit meiner optimierten Vega 56, komme ich auch auf 4,2 Watt per Frame. Ist also genauso effizient wie eine 4090.
 
Nö ist kein Witz. In WQHD. Ich nehme an, die Tabelle ist mit 4K Auflösung gemacht. Also in WQHD ziehe ich mit der 4090 aus der Tabelle gleich mit fast Ultra Detail. Mirror hab ich auf Low und SSR aus, Unschärfeeffekte aus, also Motion Blur und DOF und Filmeffekt.

In der Testgasse aus dem PCGH Savegame bin ich da konstant auf 39 FPS bei 165 Watt.
 
Ich kaufe erst wieder wenn es brauchbare WQHD Leistung (RTX4070 / RX7800) für anständiges Geld (~500€) gibt vorher nicht (mehr).
 
Weil andere GPUs das auch nicht schaffen.
Deine Werte können unmöglich richtig sein.

Meine RTX 4070 verliert bei 120 Watt Power Target >20% an Leistung.
Ich kann höchstens auf 170 Watt runtergehen, um die Leistung +-5% zu halten.
Meiner RTX 3070 habe ich bei weiten weniger Saft zugestanden...mit ~145W in jedem Test so schnell wie die von PCGH getestete stock RTX 3070.
Dann hast du es eben falsch ausgelesen. Werte vertauscht/verwechselt, o. nur die ASIC betrachtet.

Ich hab doch geschrieben...unter 200W und trotzdem gute Leistung. Eine RTX 2080Ti und eine RX 6800 trennen gute 10%.
Gute 10%?
Ich würde etwa 5-7% bei Raster veranschlagen und -10% bei low RT.
Und da eine 3070 minimal schwächer als die 2080Ti ist, ist die Differenz eher zu vernachlässigen.

Also mit -50% Energiebudget verlierst du da mächtig Performance.
Die 6800 ist mit ihren 230 Watt Regelverbrauch zudem schon aus dem Stand sehr effizient und schwierig noch wesentlich effizienter zu machen.

Mein Kollege hat die Karte und 200 Watt sind mit mehr oder weniger der gleichen Leistung drin.
Selbst bei 150 Watt fehlten aber schon 15% Leistung und auf weniger sind wir dann nicht mehr gegangen.
 
Zuletzt bearbeitet:
Die 6800 ist mit ihren 230 Watt Regelverbrauch zudem schon aus dem Stand sehr effizient und schwierig noch wesentlich effizienter zu machen.
Mit 203W TGP stock ist eine RX 6800 effizient...aber nicht so effizient, dass man da nichts verbessern könnte.
TS 203W.png

das ist nicht effizient
TS max.jpg

....ist aber trotzdem immer lustig wie man erklärt bekommt wie die eigene Karte läuft.
 
Und das ist jetzt für mich interessant...weil?
Man stößt eben auf das Problem, dass je geringer die Leistungsaufnahme der kompletten Grafikkarte wird, der Anteil für die reine GPU immer mehr zusammenfällt.

Bei 230 Watt mag deine 6800 noch 190 Watt zur Verfügung haben.
Bei 125 Watt wären das aber nur noch ~85 Watt und damit erzielt man nicht mehr solche Leistungen.
Meine kompletten Werte sind immer bei PCGH hochgeladen...kann jeder nachprüfen.
Ist natürlich abhängig welches Spiel man laufen hat.
Lastet das Spiel die GPU eh nicht aus, läuft es auch mit viel weniger Leistungsaufnahme gut, das ist aber keine Kunst.

Die 4090 verliert von 450 auf 300 Watt teilweise bis zu 14% an Leistung bei -33% Leistungsaufnahme.
Die 3090TI verliert von 450 auf 300 Watt sogar bis zu 29% an Leistung bei -33% Leistungsaufnahme.

Also, spar die deine Schummelei. -50% Leistungsaufnahme, gleiche Leistung. :lol:
So einen Quatsch habe ich wirklich noch nie! gelesen.

Wenn ich das für CP 2077 aurechne mit meiner optimierten Vega 56, komme ich auch auf 4,2 Watt per Frame. Ist also genauso effizient wie eine 4090.
Die Rechnung möchte ich sehen.:lol:
 
Zuletzt bearbeitet:
Der Kollege versteht net, wie UVen+OCen gleichzeitig funzt.

btw.
Bei den 6000ern kann man zusätzlich gezielt bei SOC+Vram durch UVen ein paar W sparen, was bei NV net geht.
Dadurch verschiebt sich die Grenze, wo dem GPU-Core die W fehlen, weiter nach Unten.
Wer das mit MPT macht wird sicherlich schon mit 203-->163Wtgp nahe an den StockScore im TS kommen.

Ich hatte vor kurzem mal Gurdis altes 165Wtgp-Setting ausprobiert (mit etwas weniger OCen auch bei mir stabil) und
kann die Werte von DaHell bestätigen !!!

165Wtgp=ca. 195Wtbp, das sind ca. 40W weniger als stock=235Wtbp oder 18% !!!

btw.
Passend dazu ist Heute die 6800nonXT etwas preiswerter:

6800@469€.JPG


Ist sicher sinnvoller als ne 4060Ti-8GB.
 
Zuletzt bearbeitet:
Analog zu den Preisen der bereits verfügbaren RTX-4000-Founders-Editions erscheint dementsprechend für den deutschen Markt eine unverbindliche Preisempfehlung von rund 440 Euro für die GeForce RTX 4060 Ti 8 GB und rund 550 Euro für die GeForce RTX 4060 Ti 16 GB realistisch. ... schreibt CB in Update 8
... für 550€ muss dann aber auch >3070Ti-Performance sein, sonst viiiel zu teuer
(eigentlich unwahrscheinlich bzw. nur in wenigen Games als Ausnahme im VramLimit)
 
Okay das kann ich nicht sagen ob ADA nur ein aufgeblasenes Ampere ist. Kannst du das mit Sicherheit sagen?
Kann ich bzw. mach Nvidia das sogar selber. Schau dir einfach die Whitepapers zu Ampere und Ada an und vergleiche dann bei beiden den Aufbau der SMs (Streaming Multiprocessor)

https://www.nvidia.com/content/PDF/nvidia-ampere-ga-102-gpu-architecture-whitepaper-v2.pdf

https://images.nvidia.com/aem-dam/S...idia-ada-gpu-architecture-whitepaper-v2.1.pdf

Warum ist das Schlimm das Endeffekt zählt doch das Ergebnis?
Hatte bereits erwähnt, dass man es so sehen kann. An sich ist daran nichts schlimm nur verdient der Weg des geringsten Widerstandes mMn. nicht eine derartige Lobhudelei.

Pascal war auch nur ein aufgeblasenes Maxwell, war doch auch eine bombengeneration.
Pascal war ein optimierter Maxwell in 16 nm, das stimmt. Hinsichtlich der Effizienz war die Architektur super, bot ansonsten aber nichts wirklich Neues.

Das mit den nodes stimmt aber wir müssen auch bedenken das solche sprünge wie früher einfach nicht mehr so leicht zu bewerkstelligen sind und das eine moderne Gpu um einiges Komplexer ist als noch vor 10 jahren.
Verstehe den Zusammenhang hierbei nicht.

Neu ist relative jede Architektur basiert auf der vorherigen.
Jein. Abgesehen von den doppelten FP32 Shadern sind sich Ampere und Turing recht ähnlich. Der Bruch zwischen Pascal und Turing ist jedoch enorm, die SMs sind deutlich anders aufgebaut. Pauschal sagen jede Architektur basiert auf dem Vorgänger funktioniert definitiv nicht.

Noch mehr quoten will ich an der Stelle nicht, sonst werde ich nie fertig.

Abschließend möchte ich sagen, dass es den meisten völlig egal ist wie die Leistung zustande kommt und wie viel Prozent der GPU nutzbar ist. Das ist auch völlig in Ordnung. Hat man Interesse an der Technik und blickt hinter das Marketing stellt man aber schnell fest, dass Ada hinsichtlich der Architektur kein großer Wurf war. Gibt definitiv einige Titel in denen der riesige Chip nicht aus der Hefe kommt und die Mehrleistung gegenüber Ampere nur durch Takt und Cache erreicht wird weil die Shader nicht schnell genug mit Daten gefüttert werden können.

Es können auch nicht viele Nvidia Nutzer von sich behaupten eine XX102 GPU zu besitzen die zu 100% nutzbar ist ;) Allein aus dem Grund werde ich meine 3090 Ti in Ehren halten. Eine zweifelsohne viel zu teure, falsch vermarktete und deshalb missverstandene Karte. Mit UV ist sie sehr genügsam und dank dem riesigen Kühler wie bei AD102 bleiben Karte und VRAM wunderbar kühl. Die Ti ist eine 3090 done right, der doppelseitige VRAM war mir immer ein Dorn im Auge und hinsichtlich der Temperaturen kaum zu kontrollieren ohne Wakü, 80-90°C beim Zocken deshalb normal. Der VRAM meiner Ti ist dank einseitiger Bestückung und großem Kühler bei 60-62°C.
 
Zuletzt bearbeitet:
Meine nächste Karte sollte mindestens 16 GB haben. Ich habe noch viel Zeit und schaue mal, was es in 2-3 Jahren so gibt. Ich hinke eh bei den Spielen hinterher und brauche die fette Leistung für WQHD nicht. Es kann sein, dass ich Cyberpunk und Co. erst in 5 Jahren zocke. Von mir gibt es also erstmal kein Geld! Sorry AMD & NVIDIA! :ugly:
 
Zuletzt bearbeitet:
@Atma

Ja kenne ich bin auch viel schreiber und kann mich darin verlieren :haha:

Ja gut mir ist das dann Tatsächlich egal wie das zustande kommt solange Leistung passt sehe ich da als simple Consumer keinen grund warum mich das kümmern sollte. Ja Turing hat Pascals Dx 12 schwäche ausgebügelt das war ein großer Sprung ich mochte Turing auch wenn sie viel gehatet wurde.

Ja die 3090TI hat quasi Ada Kühler und ist generell sehr hochwertig im gegnsatz zur normalen 3090. Eh spaß soll es machen enjoy it und enn man wegen der technischen begenheit noch mehr spaß rausholen kann warum nicht.:daumen:

Viel bezahlt aber das Ding wird auch noch in einige Jahren gut sein mit 24GB, alle High End Karten von Nvidia sind immer extrem lange nutzbar man bekommt was man bezahlt. :) Wenn die nächste Konsolengeneration rauskommt wird das Teil immer noch gut laufen. 2080TI macht sich auch Heute noch sehr gut und ist fast 5 Jahre alt.
 
Zurück