RTX 30xx-Karten: Neue Schätzungen zu Chipfläche und Verbrauchswerten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu RTX 30xx-Karten: Neue Schätzungen zu Chipfläche und Verbrauchswerten

Rund um Nvidias kommende RTX 3000er-Serie gab es bereits eine Serie von Leaks, die in Foren für hitzige Diskussionen sorgten. Nun hat die Website igor's LAB anhand der im Netz kursierenden Bilder der Kühler eigene Schätzungen zu Chipfläche, Boardgröße und Verbrauchswerten angestellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: RTX 30xx-Karten: Neue Schätzungen zu Chipfläche und Verbrauchswerten
 
Ihr hättet aber auch sein klasse YT-Video in den Artikel Packen können.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Alles muss man selber machen :nene::motz::ugly:
 
Das habe ich absichtlich nicht gemacht - ich finde, wenn man sich derart viel Mühe gibt, sollte es auch durch reichlich Seitenaufrufe belohnt werden, denn davon hat er mehr als nur durch die Nennung. Siehe letzter Absatz. :)

P.S. Hab den letzten Absatz aber nochmal aufgrund deiner Anregung angepasst, danke dafür!
 
Solche Schätzungen sind einfach nur unseriös und nichts als Click Bait.
Anhand eines Bildes einer angeblichen Grafikkarte die Chipfläche und die Leistungsaufnahme bestimmen zu wollen ist einfach nur peinlich.
 
PCGH-News schrieb:
Unterm Strich bleibt ein Strombedarf von ungefähr 230 Watt für den Chip stehen, was angesichts der zu erwartenden Rechenleistung durchaus passabal wäre.
Wie hoch wird die denn ausfallen? Mich erinnert das an Vega, hau drauf was geht.:D

Die Strümpfe sind cool. Ob's in dem Video passt und einen nicht abstempelt..., Igor nimmt es halt lässig.

Man sieht doch auf den Bildern des Kühlkörpers die vorgesehene zu kühlende Die-Größe und muss sie nur in Relation zur Gehäusehalterung stellen? Das ist doch keine Magie?
Auf jeden Fall kleiner als angekündigt (weil man da noch von noch nie dagewesen sprach) und vor allem auf PG132 zugeschnitten, wegen dem Platzbedarf. Ob die wirklich kommt und nicht doch einfach Fopperei von Nv ist, weiß kein Mensch. Irgendeine Designstudie...

Edit sagt: ... du siehst wo der Lüfter hinkommt.
 
Zuletzt bearbeitet von einem Moderator:
Und die vorher kolportierten 320W sind die von den kleineren Modellen mit max 12GB und am Ende, da ja der selbe Chip zum Einsatz kommt,
bleiben auch hier 230W für den Chip, da hier eben die Hälfte der Leistung für den VRAM abgezogen werden kann und der Rest nur minimal variiert.

Ergo: 3080 und 3090 oder wie se nun tatsächlich heissen, kommen in etwa auf die selben Werte, nur mit weniger RAM, der beim Vollausbau eben 60W und bei den kleinen nur 30zieht, weil auch nur halb so viel.
Hier wird dann eben beschnitten und mitm Takt gespielt, um die Leistungsunterschiede herauszuarbeiten.
 
50 Prozent schneller und 50 Prozent effizienter war gesagt. Wo?

RTX Titan 280 Watt TDP
RTX 3090 350 Watt TDP

Mathe NVidia?
 
So laut Igor. Ist die TDP also alles, die NVidia bei der derzeitigen Titan selbst angibt.

Dann müsste die Karte doppelt so schnell werden wie die jetzige Titan, also 100 Prozent. Wer glaubt das? Sieht eher so aus als wenn sie 30 Prozent schneller wird und mehr verbraucht.
 
die 2080 liegt bei 148 watt.
Könnte hinkommen, nach Igors Berechnungen müsste die 3080 dann etwa bei 200 GPU only liegen.

Sieht eher so aus als wenn sie 30 Prozent schneller wird und mehr verbraucht.
Was wir nicht kennen ist der Takt. Aber es könnte gut sein, dass der Praktikant was verwechselt hat, nämlich +50w bei 50% schneller.:D

Man will nicht unken, aber wenn sie nicht zulegen ist das einfach Turing in 7nm+Ausbau (Shader, Tensor, RT Core) und der braucht halt Energie. Siehe Vega20. 30% Ersparnis bei knapp 30% Taktzugewinn, daraus resultierend etwas mehr Power (abrufbare Leistung).

320w bei +50% und 2,2GHz? Könnte trotzdem schnell werden, dass mit der Effizienz war wohl eher auf HPC bezogen.

Edit sagt: ... wenn Tensor v2 dazukommt, müsste man sehen wo das landet. Das wäre dann aber ziemlich eigen ausgedrückt und nur unter DLSS so.
 
Zuletzt bearbeitet von einem Moderator:
Könnte hinkommen, nach Igors Berechnungen müsste die 3080 dann etwa bei 200 liegen GPU only liegen.

Warum sollte die 3080-GPU in 7nm 50 Watt mehr ziehen als die 2080 in 12nm?
Wo ist da die Logik?

Ich hab mir das Video von diesem Igor angesehen.
Der Typ denkt auch er weiß alles und er hört sich gerne selbst reden.
 
Zuletzt bearbeitet:
Ich weiß es halt ;)

Nur werde ich nicht irgendwelche Unterlagen ins Bild halten, damit ich mich angreifbar mache. Das ist ja gerade das Spiel, noch möglichst genau zu bleiben, ohne die Nachkommastellen zu nennen ;)
Und ein klein wenig Spaß dabei solltet ihr mir schon gönnen, ich mache das auf YT in meiner eh schon knappen Freizeit.
 
Wo ist da die Logik?

Weil die 3080 nicht mehr GT104 ist, sondern GA102, vermutliche 627mm² groß, die dann (lass mich überschlagen) nur irgendwas um 100w GPU only braucht (+/-50%)? Das glaubst du doch selbst nicht, oder?

Die Karte könnte rein als Upgrade klar schneller werden, wird aber mehr verbrauchen als eine 2080, weil Nv einmal ins Regal höher greift. Zu vermuten ist das GA104 nicht reicht um BigNavi-Konkurrent zu sein.

Und ob er sich gerne reden hört oder nicht..., vor allem liefert er Infos, die gewisse Spekulationen zulassen und darum geht es hier. Von final spricht ja keiner, vorerst nicht.
 
Zuletzt bearbeitet von einem Moderator:
Man will nicht unken, aber wenn sie nicht zulegen ist das einfach Turing in 7nm+Ausbau (Shader, Tensor, RT Core) und der braucht halt Energie. [...]

Einfach ein geshrinkter Turing ist es zweifelsfrei nicht, da der Chip wesentlich größer ist bzw. deutlich mehr Transistoren verwendet. Selbst in der konservativesten Schätzung hat der GA102 bereits rd. 35 % mehr Transistoren als der TU102 (und in weniger zurückhaltenden Schätzungen könnte der Zuwachs gar auf über 100 % ansteigen, was keinesfalls unrealistisch wäre).

Warum sollte die 3080-GPU in 7nm 50 Watt mehr ziehen als die 2080 in 12nm?
Wo ist da die Logik?[...]

Was er denken mag, bzw. wohl offensichtlich eher was du denken magst, hat nichts mit seiner Vernetzung und seinen Quellen zu tun und nur die sind relevant für das was er sagen oder auch bewußt (noch) nicht sagen kann zu diesem Thema.
Abgesehen davon kann man die Angaben weder in die eine noch andere Richtung anzweifeln, sondern hier spielen eher die Präferenzen der betreffenden Leute in der Regel die weitaus größere Rolle. AMD-Fanboys, zweifeln alles an und werten dies als schlechte Zeichen, Angst, Panik, Unfähigkeit und sonst was bei nVidia und nVidia-Fanboys werten die exakt gleichen Aussagen als positives Zeichen für sehr gute, leistungsfähige Karten. Mit einer kritischen und sachverständigen Auseinandersetzung der vielen Bausteine, die hier zu einem Gesamtbild zusammengefügt werden sollen, hat das jedoch wenig zu tun, sondern eher mit Confirmation Bias & Co.
Der Chip wird deutlich größer und wenn dazu auch noch ein hoher Takt angepeilt wird, zieht das Design nun einmal viel Strom, das ist schlicht so. Daran können auch 7 nm nichts ändern. Bereits AMDs durchwachsenes Navi 10-Design würde in der oftmals schlicht verdoppelt angenommenen Ausbaustufe ein Heizbrikett ohne Gleichen werden, entsprechend sind deren versprochene +50 % Perf/Watt für RDNA2 auch nicht abwegig, denn ohne die architektonischen und vielleicht auch im Kleinen fertigungstechnischen Optimierungen könnte AMD so etwas wie "Big Navi" gar nicht fertigen.
Und bzgl. der Namen "3080" (oder auch nicht) ist noch vieles im Fluss. Aktuell weiß man nicht ob das kleinere GA102-Modell möglicherweise einen "3070"-Namen bekommt und die vermeintliche "3090" kann man ebenfalls noch nicht final einsortieren. nVidia könnte damit die ehemalige große Ti ersetzen und mit einem "regulären" Namen ausstatten, man könnte aber ggf. auch die Titan ersetzen wollen oder, oder, oder.
Naiv ist jedoch zu meinen, dass in irgend einem Marketingalmanach verbrieft stehen muss, dass ein als "x080" benanntes GPU-Modell zwangsweise in der Mark/Produktkategorie XY einzusortieren ist. In erster Linie sind nVidia's nummernbasierte Modellnamen als relative Klassifizierung innerhalb des jeweiligen aktuellen nVidia-Portfolios zu verstehen, nicht mehr und nicht weniger. Und wenn sich die Leistung des neuen Portfolios insgesamt nach oben verschiebt, verschieben sich wohl auch alle Modelle und damit können sich auch Spezifikationen verschieben.
Schlussendlich sind 300 oder gar 350 W nichts ungewöhnliches für GPUs; alles schon dagewesen, sowohl von AMD wie auch von nVidia ... einfach abwarten und Tee trinken.
 
wie bekommt igor das immer mit wenn wer schreibt über ihn ^^

eclipsos amd herz blutet schon wieder weil navi saufen wird wie ein loch xD um gerade so mithalten zu können
Mein AMD Herz blutet absolut nicht, wenn das meiner Frau und das habe ich hinzunehmen. Es hat aber den Anschien das hier Nv Herzen bluten, weil die mal wieder Marketingsauce veröffentlicht haben.

Einfach ein geshrinkter Turing ist es zweifelsfrei nicht, da der Chip wesentlich größer ist bzw. deutlich mehr Transistoren verwendet. Selbst in der konservativesten Schätzung hat der GA102 bereits rd. 35 % mehr Transistoren als der TU102 (und in weniger zurückhaltenden Schätzungen könnte der Zuwachs gar auf über 100 % ansteigen, was keinesfalls unrealistisch wäre).
Dann müsstest du wissen wie der Tensor und RT Ausbau ausfällt und wie dort die Steigerung aussieht. Hab ich übrigens geschrieben und "geunkt".

Nur scheint Nv 7nm absolut nicht so effizient zu sein wie sie angekündigt haben, was mich schon beim A100 wunderte.

Edit sagt: ...AMD hat im ersten und zweiten 7nm Node ja vor allem bei clock rating aufgeholt, was wohl auch ihr Ziel war. Nv setzt sicher auf beides, hat aber nicht mehr so viel Potential (Taktsteigerung), daher geht man mit dem Lineup in die "Breite". Heißt 3080 wieder GA-Highend und 3070 wieder GA-Mainstream, wo für mich der GT104 auch hingehört. Nur weil man keine Konkurrenz hatte, konnte man sich leisten die "Billigvariante" als Highend zu verkaufen. Denke mal die Zeiten sind vorbei. Und dann fehlt es Highend schlichtweg an der Effizienz, die man im Mainstream gewöhnt ist.
 
Zuletzt bearbeitet von einem Moderator:
Zurück