Mit Vorsicht zu genießen: Erster Timespy-Wert der Geforce RTX 4090 [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Mit Vorsicht zu genießen: Erster Timespy-Wert der Geforce RTX 4090 [Gerücht]

Auf Twitter hat ein bekannter Leaker das erste designierte Benchmark-Ergebnis der kommenden Geforce RTX 4090 veröffentlicht, die in Sachen Performance demnach ordentlich zulegt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Mit Vorsicht zu genießen: Erster Timespy-Wert der Geforce RTX 4090 [Gerücht]
 
Ich glaube nicht das man die Wattangaben der 4000er Reihe als "spannend" bezeichnen kann. Wir wissen das schon das es eine GTX580 2.0 wird....aka "Thermi". Heißt halt jetzt A-head-a ?
 
Balken mit Watt Angabe wäre für mich "spannender" gewesen ...

MfG Föhn.
Nur die maximale Leistungsaufnahme? Ist allein ziemlicher Unsinn, muss man in Relation zur Leistung betrachten. Aber passt so wohl besser in Deine Argumentation...

+~ 80% auf eine 3090 ist auf jeden Fall eine Ansage, wenn es denn stimmt.
 
RTX 4090, TSE >19000
kopite7kimi ist schon eine beneidenswerte zitierfähige Quelle.
Nicht mal 20 Zeichen auf Twitter oder habe ich etwas überlesen?
Aus 20 Zeichen wird ein Artikel mit über 650 Wörtern auch wenn "Mit Vorsicht zu genießen" versehen.
Respekt!

Er ist wie Chuck Norris:
Ich brauche keine Quellen oder Beweise... ich BIN die Quelle der Beweise.
 
Nur die maximale Leistungsaufnahme? Ist allein ziemlicher Unsinn, muss man in Relation zur Leistung betrachten.

Nein.
Man kann auch die Leistungsaufnahme als solches verurteilen ohne an Bedingungen zu knüpfen und ich kann jetzt schon sagen, dass sie viel zu hoch ist!

400 Watt + passt nicht mehr in die heutige Zeit rein und ich sehe es als ein Versagen an, dass der Hersteller es nicht hin bekommen hat hier brauchbares zu liefern.

Ich fordere sie ja schon lange, die Verbrauchsobergrenze für Grafikkarten!
 
Auch wenn ich "Leaker" nicht aktiv verfolge habe ich das Gefühl dass kopite7kimi meist ziemlich nah dran war oder genau richtig lag. Kann mich aber auch täuschen.
Ich möchte ihm gar nicht seine Qualitäten als "Leaker" streitig machen.
Es ist halt bemerkenswert, wie so ein kurzer Tweet ohne weiteren Hintergrund eine Reihe von News auslösen kann.
Ist ja eigentlich nicht schlecht… Ich habe auch geklickt.

Ich habe irgendwann mal eine Statistik zu der Qualität der Leaker gelesen, evtl. war das hier.
Wenn, sagen wir mal 70% der Vorhersagen zutreffend sind, hört sich das in Schulnoten "nur" befriedigend an.
Da haben wir hier im Forum oder in der Redaktion PCGH auch ein paar Freaks (Experten ?) die das genauso gut hinbekommen.
Diese werden aber zerrissen, wenn sie keine Hintergrundinfos liefern… leider zurecht.
 
Nein.
Man kann auch die Leistungsaufnahme als solches verurteilen ohne an Bedingungen zu knüpfen und ich kann jetzt schon sagen, dass sie viel zu hoch ist!

400 Watt + passt nicht mehr in die heutige Zeit rein und ich sehe es als ein Versagen an, dass der Hersteller es nicht hin bekommen hat hier brauchbares zu liefern.

Ich fordere sie ja schon lange, die Verbrauchsobergrenze für Grafikkarten!
Dann fang mal mit Deiner 1000W 3090 an und sei ein gutes Beispiel! :daumen:

Ich möchte ihm gar nicht seine Qualitäten als "Leaker" streitig machen.
Es ist halt bemerkenswert, wie so ein kurzer Tweet ohne weiteren Hintergrund eine Reihe von News auslösen kann.
Ist ja eigentlich nicht schlecht… Ich habe auch geklickt.

Ich habe irgendwann mal eine Statistik zu der Qualität der Leaker gelesen, evtl. war das hier.
Wenn, sagen wir mal 70% der Vorhersagen zutreffend sind, hört sich das in Schulnoten "nur" befriedigend an.
Da haben wir hier im Forum oder in der Redaktion PCGH auch ein paar Freaks (Experten ?) die das genauso gut hinbekommen.
Diese werden aber zerrissen, wenn sie keine Hintergrundinfos liefern… leider zurecht.
Waaarte, im aktuellen "Intel Leak" zu Raptor Lake wird die vermeintliche Leistung des Engineering Samples als gesetzt angesehen (von Team Red...)! :schief:

Und wenn man hier mit Belegen ankommt dann zählen die auch nicht wenn sie für die "andere" Seite sprechen.
 
Nein.
Man kann auch die Leistungsaufnahme als solches verurteilen ohne an Bedingungen zu knüpfen und ich kann jetzt schon sagen, dass sie viel zu hoch ist!

400 Watt + passt nicht mehr in die heutige Zeit rein und ich sehe es als ein Versagen an, dass der Hersteller es nicht hin bekommen hat hier brauchbares zu liefern.

Ich fordere sie ja schon lange, die Verbrauchsobergrenze für Grafikkarten!
Die Nvidia Techniker haben längst eine Win-Win-Lösung für den hohen Energieverbrauch gefunden.

"RTX 4090ti - Chef edition"
 

Anhänge

  • RTX4090.jpg
    RTX4090.jpg
    201,2 KB · Aufrufe: 79
Balken mit Watt Angabe wäre für mich "spannender" gewesen ...

MfG Föhn.

Watt?
Hat er hat er hat er!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ich glaube nicht das man die Wattangaben der 4000er Reihe als "spannend" bezeichnen kann. Wir wissen das schon das es eine GTX580 2.0 wird....aka "Thermi". Heißt halt jetzt A-head-a ?

Spannung gibts auf dem Brett sicher genug!
 
Das war doch von Anfang an klar, dass da bei einem breit aufgestellten Gaming Benchmark keine 200% - 250% relativ zu den 100% der RTX 3090 raus kommen können.
Nun sind wir bei einem synthetischen Benchmark wie Timespy bereits bei nur 186% für die RTX 4090 bzw. 179% für die RTX 4090ti angelangt und bei Games wie ich schon vor etlichen Monaten geschrieben hatte, werden am Ende im besten Fall nur noch 60 -70% bzw. 160 -170% relativ zur RTX 3090 dabei rauskommen.

Gerde im 3D Center (oder sollte ich besser schreiben Nvidia Center) wurden die kommenden Lovelance Karten oft unreflektiert, unkritisch in den Himmel gehypt.
Von wo sollen auch diese ominösen 200 -250% kommen?
Von Skalierungseffekten, haben sie da anscheinend noch nie etwas gehört, da wurden einfach anhand einer Milchmädchenrechnung die + 71% Shader mit dem gesteigerten Taktraten multipliziert und dann kamen diese hype Werte dabei raus.
Dabei hätte ein tauber, blinder mit einem Krückstock und ohne Geruchs und Tastsinn ausgestatteter Maulwurf erahnen müssen, das ein unveränderter Memory bus: 384bit in Kombination mit GDDR6X 21 Gbps (im besten Fall 24Gbps) die 3090 hat bereits 19.5Gbps. mit den zusätzlichen 90MB an L2 Cache (wie viel kann man damit an Speicherbandbreite kompensieren max. 30%?)
Im besten Fall hat die 4090 also zwischen 140 -160% mehr Speicherbandbreite und dann sollen dabei 200 - 250% raus kommen, wirklich wollt ihr mich verarschen, aber dieser Punkt wurde nie angesprochen.
Das da hinten und vorne etwas nicht zusammen passen kann, ist wirklich keinem bis auf dem Einen in den Sinn gekommen.

Also fassen wir zusammen ca. +60% bei zwei Node Sprüngen, ca. 450W und schweineteurem >600mm2 TSMC 4nm Die.
Zum Glück brechen gerade die Preise ein, sonst würde sich Nvidia diese 60% wahrscheinlich vergolden lassen.
Man kann wirklich zu recht sagen, dass ist wirklich eine Bescheidene Vorstellung die einem da voraussichtlich geliefert wird.
Auch die Werte für den AD103 und AD104 sind maßlos übertrieben und bedürfen einer dringenden Überarbeitung.
 
Zuletzt bearbeitet:
Also fassen wir zusammen ca. +60% bei zwei Node Sprüngen, ca. 450W und schweineteurem >600mm2 TSMC 4nm Die.
Zum Glück brechen gerade die Preise ein, sonst würde sich Nvidia diese 60% wahrscheinlich vergolden lassen.
Man kann wirklich zu recht sagen, dass ist wirklich eine Bescheidene Vorstellung die einem da voraussichtlich geliefert wird.
Auch die Werte für den AD103 und AD104 sind maßlos übertrieben und bedürfen einer dringenden Überarbeitung.
+60% Performance bei einem Gen Wechsel findest Du bescheiden? Ernsthaft?

Aus ~30% mehr Stromverbrauch (350W vs 450W) holt man 60% (oder mehr, werden wir bei Release sehen) mehr Leistung raus. Das klingt jetzt nicht sooo schlecht.

Und zwei volle Node Sprünge sind das nicht. Samsung 8nm ist etwas schlechter als TSMC 7nm, jetzt geht man auf TSMC 5nm (der 4N ist nur ein angepasster 5nm Prozess), da kann man von max. 1,5 Nodes sprechen.
 
Gerde im 3D Center (oder sollte ich besser schreiben Nvidia Center)
Schon mal den RDNA2 Thread verfolgt? Wo, bis auf ein paar Ausnahmen, jeder seine Schwurbelwerte posten kann.
Es hat wohl seinen Grund warum die Schwurbler mit ihren Traumwerten nicht im LUXX vertreten sind.
Da werden reale Werte mit realen Verbräuchen und nachvollziehbaren Ergebnissen gepostet.

Die Tunnelblickfahrer gibt es also in jedem Bereich in dem es etwas zu vergleichen gibt.
 
Zurück