Geforce RTX 4090: Angeblich über 20K Punkte im 3D Mark [Gerücht]

Wenn ich jetzt im Kopf hätte was ich in den 3d Marks für Werte habe, dann könnte ich mit den 20000 mehr anfangen.

Aber eh egal. 4090/ti wird ja eh gekauft. Nach 2 Jahren 3090 wird es einfach Zeit für was neues :D
Ich hab meine 3090 noch zu Zeiten der hohen Preise wieder verkauft und gedacht mir reicht erstmal ne GT 1030 (Gaming war sehr in den Hintergrund gerückt), dann ne 3070 :ugly:
Ich brauche die 4090 wirklich, für VR in DCS und MSFS. Da kann man gar nicht genug Leistung haben
 
90% Mehrleistung gegenüber der 3090 bei "gerade mal" 30% Mehrverbrauch klingt schon nicht schlecht, wenn das tatsächlich auch unter Realbedingungen auf die Straße gebracht wird und nicht nur in Synth Benchmarks, dann Hut ab.
 
Schade dass das anliegende PT nicht explizit kommuniziert wurde (?). Wenn die Karte das mit 450W macht (also über 3 GHz) wäre das sehr sehr stark - denn dann könnte selbst eine auf 300-350W eingebremste bzw optimierte 4090er die 2,5 GHz halten und bei gleichem Verbrauch eine 3090 pulverisieren.
Wenn hier natürlich mit 600+W gebencht wurde ists ein ganz anderes Gespräch...
 
%30 zu viel. natürlich ist es schön zu sehen dass sowas machbar ist. sorry aber wo will das Enden?

Weder Revolution noch Evolution irgendwie​

Du verstehst anscheinend nicht dass eine derart bessere Performance/Watt Effizienz dafür sorgt dass man damit sehr sparsam rendern kann.

Bei gleicher Target FPS könnte man >50% weniger Watt im Vergleich benötigen.
 
@PCGH: Könnten wir mal statt [Gerücht] das Ganze korrekt als [Werbung] deklarieren?

Im Endeffekt sind ohne nachvollziehbaren Test die hier genannten Werte für'n Popo.
Ganz davon abzusehen, das noch nicht mal klar ist, ob das nicht 'n gut gemachter Fake ist um Aufmerksamkeit zu erhaschen.

Und um ehrlich zu sein, die 1-4 Monate bis ordentliche Tests und Verfügbarkeit da sind, das schaffen wir auch noch. ;-)
 
90% Mehrleistung gegenüber der 3090 bei "gerade mal" 30% Mehrverbrauch klingt schon nicht schlecht, wenn das tatsächlich auch unter Realbedingungen auf die Straße gebracht wird und nicht nur in Synth Benchmarks, dann Hut ab.
"nur" 30 % mehr Verbrauch sind aber auch wieder ein Plus für Verbrauchsmonster.... In der heutigen Zeit, nicht nur der Strompreise wegen - sondern auch der Umwelt wegen, sollte der Verbrauch besser sinken, oder wenigstens nicht mehr steigen.

Überall wird gespart - nur bei GPUs und CPUs nicht. Wo soll das Enden? Brauchen wir in ein paar Jahren dann schon 1000W-Netzteile in der Mittelklasse und 2000er im Highend?

Bei mit kommt jedenfalls keine neue Karte mehr die über 200W zieht... irgendwo ist auch mal eine Grenze.
 
PCGH: Könnten wir mal statt [Gerücht] das Ganze korrekt als [Werbung] deklarieren?
Ne, das würde ja bedeuten dass jemand PCGH dafür bezahlt das zu schreiben... das is ja nicht so^^


Überall wird gespart - nur bei GPUs und CPUs nicht.
Vorsicht, die Nummer mit der Energiekrise und sparen und Supereffizienz usw ist vorrangig ein deutsches bzw jetzt europäisches Problem. Der Rest der Welt interessiert sich nicht im geringsten dafür und denen ists auch egal ob de GPU 200 oder 400 oder 800W frisst.

Nvidia und AMD und Intel produzieren für den Weltmarkt, nicht für uns paar Hanseln die es nicht gebacken bekommen günstigen Strom für alle zu bieten.
 
"nur" 30 % mehr Verbrauch sind aber auch wieder ein Plus für Verbrauchsmonster.... In der heutigen Zeit, nicht nur der Strompreise wegen - sondern auch der Umwelt wegen, sollte der Verbrauch besser sinken, oder wenigstens nicht mehr steigen.
Kommt drauf an, wie viel man sparen kann, wenn man undervoltet/das powerlimit/den takt runtertrimmt und wie viel an Mehrleistung übrig bleibt. 50% Leistungsplus bei 0% mehr Verbrauch wären ja immer noch großartig.
 
3090Ti Leistung bei 285W und 12GB bei max 600€ fänd ich ganz OK

Mehr Speicher wäre natürlich besser aber wird wohl nicht passieren.
Geiz ist geil oder?
Schade dass das anliegende PT nicht explizit kommuniziert wurde (?). Wenn die Karte das mit 450W macht (also über 3 GHz) wäre das sehr sehr stark - denn dann könnte selbst eine auf 300-350W eingebremste bzw optimierte 4090er die 2,5 GHz halten und bei gleichem Verbrauch eine 3090 pulverisieren.
Wenn hier natürlich mit 600+W gebencht wurde ists ein ganz anderes Gespräch...
In den News von Videocardz.com steht:
The leaker claims that the graphics card is air-cooled and it is huge. It looks to be designed for 600W to 800W but the TDP is 450W.

"nur" 30 % mehr Verbrauch sind aber auch wieder ein Plus für Verbrauchsmonster.... In der heutigen Zeit, nicht nur der Strompreise wegen - sondern auch der Umwelt wegen, sollte der Verbrauch besser sinken, oder wenigstens nicht mehr steigen.

Überall wird gespart - nur bei GPUs und CPUs nicht. Wo soll das Enden? Brauchen wir in ein paar Jahren dann schon 1000W-Netzteile in der Mittelklasse und 2000er im Highend?

Bei mit kommt jedenfalls keine neue Karte mehr die über 200W zieht... irgendwo ist auch mal eine Grenze.
Also wenn du ein ATX 3.0 Netzteil hast, reicht ein 1000W Netzteil für eine 250W CPU und eine 600W GPU. :D
Ich werde so mutig sein und die 4090 mit meinem 750W SFX Netzteil betreiben.

Man kann die Leistung die eine GPU zieht auch selber anpassen. Meist sind da 50W ohne Leistungsverlust drin, weil sowas Toleranzen im Binning ausgleichen soll. Wenn du ein paar Verluste mit in Kauf nimmst, oder du sowieso ein FPS-Limit nutzt und die GPU wich langweilt, dann kannst du das Power-Limit auch weiter anziehen.
Meine 3090 läuft je nach Game mit mittlerweile biszu -30% Power-Limit, was statt 350W nur noch 245W macht.

Gespannt auf Tests bin ich auch :P
 
den News von Videocardz.com steht:
The leaker claims that the graphics card is air-cooled and it is huge. It looks to be designed for 600W to 800W but the TDP is 450W.
Ja - da steht aber nicht explizit wie gebencht wurde sondern nur dass die Karte ne TDP von 450 hat.

Er könnte auch mit 600 gebencht haben um mit hohem Score und Taktraten mehr Klicks zu bekommen und das geschickt nicht dazuschreiben sondern nur die Werkstdp erwähnen...
 
btw.
Bei den Twitter-Leaks zu XYZ sollte man derzeit vorsichtig sein!

3dC hat seine News über die RT-Perf. der 4090 daher im Nachhinein als "ungültig" gekennzeichnet.(fake)
 
Zuletzt bearbeitet:
Hmm jetzt komme ich doch langsam ins grübeln, ob ich meine 3080 nicht doch verkaufen soll.
Momentan bekäme ich die noch ohne Verlust verkauft.

Ampere wird scheinbar doch ein deutliches Leistungsplus bringen.
 
Hmm während ich zwar Jahrelang jetzt keine neue GPU gekauft habe, werde ich immer noch einen Bogen um die kommende Gen machen. Einfach zu Stromverschwenderisch. Werd mir in ein paar Jahren eine GPU holen, 150 Watt, hat halt dann erst die 4090er Leistung, aber ich brauche keine E-Heizung im Zimmer.
 
Zurück