RTX 3080: Erste OC-Ergebnisse zu GPU und GDDR6X-Speicher

Na also da kann doch was nicht stimmen ? Die Werte müssten höher sein, wie langsam ist dann erst eine 3070 ? Die 3080 hat fast die doppelte Menge an Cuda Cores gegenüber der 2080Ti und eine sehr gute Speicheranbindung... Ich habe seit dem ersten Tag meine 2080Ti wassergekühlt und seit 2 Jahren nutzen können, Mit EVGA XC Ultra Bios erlaube ich bis zu 336 Watt und das stabil und auch nur dann wenn ein Spiel die wirklich braucht. Damit komme ich auf 7500 Punkte Im Timepsy Extreme. Die Standard 2080Ti ohne Overclocking und TDP von 260W kommt auf 6500 Punkte... und die 3080 auf 8500 Punkte ? Wow ... ist die 2080Ti schnell oder die 3080 nur in ganz bestimmten Situationen, sagen wir mal 50% schneller, aber so .. gegenüber meiner 2080Ti XC nur 15% schneller... und die 2080Ti hat 11 GByte Speicher anstatt nur 10 GB.... Ich schätze die 3000 Serie kann nur dann ihre Stärke nutzen wenn bestimmte Bedinungen erfüllt sind. Also die 2080Ti ist so wohl meistens schneller als die 3070, hat 30% mehr Speicher und kann genau so gut RTX IO wir die 3000 Serie... Ich traue mich zu behaupten dass ich noch länger glücklich mit meiner 2080Ti sein werde.... Die 3070 ist wohl rein für die 1070 und 1080 zu ersetzen und kann der 2080Ti wohl nicht ganz das Wasser reichen.. Die Kombination aus Raytracing und DLSS und Cuda Cores wird wohl nur zusammen dieses grosse Leistungsplus vorzeigen können... Ich glaube fast nur ein Upgrade auf die 3090 macht Sinn wenn man eine 2080Ti hat... und das wird teuer.. AMD soll ja die 3070 und die 3080 Performance anpeilen mit BIG Navi und dabei noch nicht mal ganz die RayTracing Performance der 2000 Serie erreichen... Also ist BIG Navi wohl dieses Jahr eher eine 2080Ti Konkurrenz wenn man alle Features mit einbezieht, aber eventuell etwas günstiger als die 3000 Serie dann und sparsamer im Stromverbrauch... Ich denke die Besitzer einer RTX 2080s oder Ti brauchen gar nicht sooo nervös zu sein... Mal sehn wenn Mittwoch PCGH mit den definitiven und vertrauenswürdigen Tests kommt, vielleicht fehlt ja noch der finale Treiber... Der Liebling aller Karten und das Beste/Sinnvollste was man für sein Geld unter 1000 Euro kriegen wird, wird wohl irgendwann eine 3080Ti mit 20 Gbyte für 799+ Euro.. ist jetzt mal meine Prognose... die dann wassergekühlt sollte die perfekte Karte sein für 4K + Raytracing + DLSS + RTX IO für´s schnelle Laden. Wir werden sehn.... :)

Ergänzung:

Hab gerade das Video der PC Welt mit NVidia gesehen... jetzt verstehe ich den Grund der nicht so grossen Performancesteigerung... die Hälfte der Cuda Cores kann entweder FP32 oder Int32 und die meisten Spiele und Benchmarks nutzen beides meistens noch... das heisst nicht alle Cuda Cores stehen immer zur Verfügung weil sie grad was anderes abarbeiten müssen. Je neuer oder moderner ein Spiel programmiert ist umso mehr wird rein auf Cuda Cores gesetzt, dann stehen auch die ganzen Cuda Cores erst zur Verfügung... heisst... erst in zukünftigen Spielen wird sich die Leistung ganz entfalten können und der Abstand zu anderen Karten wird dann erst grösser... hmm ok.
 
Zuletzt bearbeitet:
Ach damit ist das PowerTarget gemeint?
Nee, die Karte hat bei 100% PT avg 317w gezogen und 370w in der Spitze und gemeint ist die 3080. Das ist maximal enttäuschend, von wegen 50% effizienter. Ich frag mich was die Custom ziehen 400w realtime?

Jeder 8Pin liegt bei 128w, und der PCIe Slot bei 60w avg...Ampere genehmigt sich richtig was. Max sieht das viel schlimmer aus.

Ich behaupte mal das liegt einfach und allein an Samsung und Nvidia hat sich richtig verzockt mit TSMC. Die Dinger sind allesamt keine OC Wunder und die Serienstreuung ist alles andere als gut. Die verwursten also gerade alles, was vom Wafer fällt.
 
Zuletzt bearbeitet von einem Moderator:
Die guten alten Zeiten bis zur 600er Reihe mitm BIOS Editor oc'n & mvolten sind leider vorbei., da NV es gelocked hatte. Damals noch der 500er mehr Saft gegeben damit BF nix frozen. Jetzt ist meine 1080er Ti mitm xtreme BIOS verebayt.
Aktuell werde ich mir die kommende überteuerte dicke 3,5 Slot Aorus (3x8pol) sparen, & die günstigste flache Gigabyte ordern wenn OC nix bringt. 10 GB reichen mir für WQHD. & in 5 Monaten gibt's die Ti.......
 
TDP = +50%
Herstellungsprozess = +50%

da müsste man eigentlich meinen die 2080 würde 320W verbrauchen und die 3080 nur noch 215W, nicht umgekehrt. Diese Samsung 8nm im Vergleich zu den 12 von TMSC sind nicht so wie sich Nvidia das gewünscht hat. Dann reden wir außerdem von einem Zuwachs von 100% bei der Anzahl der Transistoren.

Vor 15 Jahren hätte man gesagt, 1,5 TDP * 1,5 Fertigung * 2 Transistorcount = 4,5 fache Leistung minus Faktor X.

Hier sehen wir ganz klar, dass hier keine lineare Skalierung vorliegt, sondern dass Nvidia in allen Aspekten im flachen Teil der Kurve angekommen ist und die Steigerungen einfach nicht so ankommen. Da mag es eine Rolle spielen, dass der RTX Core in den Benchmarks auf Idle ist, dass DLSS auf Idle ist und damit die Karte eigentlich zu 40% stillsteht. Das liest sich im Moment als könnte man mit RTX On und DLSS On die Karte noch in ganz andere Limits reintreiben.

Evtl. könnte es sein, dass Nvidia bei RTX On diverse Cuda Cores abschaltet um Power Limit zu sparen, denn wozu 10 Frames mehr berechnen als durch den Flaschenhals RTX passen?

Umgekehrt sind bei RTX Off mehr Cuda Cores aktiv, weil die Karte das PowerLimit dynamisch verteilt. Nur so ergeben für mich die Aussagen im Moment einen Sinn. Spitzname von dem Ding könnte Heatzilla werden, for allem wenn der Feueratem der Abluft direkt in den CPU Ansauglüfter speit.
 
Immer dieses gejammere ,man kann sichs nicht leisten und die anderen sind Hirnlos ,oder sonstwas .Ich sag ja auch nicht das die für die 1500 Euro+ für ne Graka (und dann kommt auch noch 150 für nen Wakükühler dazu) zuviel sind arme deppen sind.Jeder kauft sich da was er sich leisten kann.Die einen eben Highend ,die andern darunter

Hier gehts ums Prinzip.
Du unterstellst mir, dass ich mir das nicht leisten kann?
Warte, ich verkaufe mal 5 von meinen NV bzw. 30 von meinen AMD Aktien und hab das Geld für die Grafikkarte. Danke, dass DU mir im Endeffekt meine Graka mitbezahlt hast ?

Aus Kundensicht kann man das Nvidia Preisgefüge nicht gutheissen.
Aus Aktionärssicht können sie von mir aus 5000 verlangen, solange Du mir meine nächste Graka finanzierst ist mir das Wurscht - du bezahlst sie mir ja mit.
 
All diese Ergebnisse würde ich nicht ernst nehmen. Es kann so vieles über die eigentliche Leistung entscheiden.
Immer lese ich z.b. 9900k oder 10900k. Aber bereits heute sehen wir das PCI-E 4.0 generell mehr FPS bringen. Und Intel hat kein 4.0.
Dann weiß man nie über die Netzteile bescheid. Man weiß das Grafikkarten durchaus kurze Spitzen von 100-150W mehr haben können.
Meine Strix 1080 Ti zieht auch mal 285W laut HWiNFO ohne OC meinerseits. Diese Spitzen sind aber nicht eingerechnet, da man diese nur mit externen Messwerkzeug messen kann. Schaut euch dazu mal ein Video oder die Webseite von igorsLAB an. Dieser wird übrigends am Mittwoch einiges dazu veröffentlichen. Neben z.b. Gamersnexus ist er einer der auch mal genauer eine Karte untersucht, als nurzu Benchmarken.

Die Far Cry Benchmarks zeigen eindeutig Limitierung der CPU oder der Engine oder sogar was anderes.
Ashes wird oft mit Manuell übertakteten Grafikkarten genutzt, das heißt auch mal Trockeneis. Außerdem ist das Spiel EXTREM skalierend mit der CPU. Auch die GPU FPS geht bei dem Spiel mit einer bessen CPU höher. Daher kann man den Werten nicht zum vergleich nehmen.

Und das wichtigste...Treiber...die Karte läuft zwar, aber womöglich werden nicht alle Ressourcen genutzt, z.b. die neuen FP+INT/FP+FP Cuda-Kerne. Durchaus möglich das ohne Treiber nur die Hälfte der Kerne laufen. Reviewer mögen die Vorab-Treiber auf einem Stick oder eher per E-Mail bekommen haben. Aber keiner von denen wird ernsthaft was veröffentlichen, da sie ja auch in Zukunft Review-Karten bekommen wollen. Und das brechen einer NDA kann auch zur größen Geldstrafe führen. Das Treiber über die Performance entscheiden, weiß ja auch jeder AMD Nutzer.

Ich bezweifle nicht, das manche Benchmarks mit einer RTX 3080 gemacht worden sind, da ja bestimmt schon einige CUSTOM in Asien, teils unter der Hand verkauft werden. Da die ja schon früher an viele Händler dort geliefert werden. Es dauert ein paar Tage mehr bis sie bei uns ankommen (Postweg). Und Nvidia verkauft die Founder soweit ich weiß nur selbst, daher dürfte kein Händler und damit auch kein Kunde die in der Hand haben, außer jene die von Nvidia selbst verschifft worden sind. Einzige Ausnahme vielleicht ist GPUklau bei der Post.

Ich werde mit eine RTX 3080 holen, weil ich noch kein Raytracing im PC habe und mir eine 2080 ti zu teuer war. 700-800€ ist mein durchschnittler Betrag, den ich für eine Karte maximal ausgeben will. Außerdem finde ich das Design der Karte cool. :D Der Kühler könnte z.b. zur Kühlung meiner M.2 helfen indem die GPU einfach nicht mehr mit heißer Luft draufbläst....wie die CUSTOM Karte (oder wie so alle non-Blower Karten) die ich aktuell habe.

P.S.
Ich vertreidige nicht Nvidia, ich will nur Fakten auf den Tisch legen. Und AMD hat seine Karten ja auch noch nicht auf dem Tisch liegen.
Und natürlich schaue ich mir aber erst die Bewertungen am Mittwoch an, bevor ich mir eine bestelle.

Edit:
Zu den Cude Kernen:
Eine 2080 Ti hat z.b. 4352 x FP32+INT32 Cuda-Kerne. Eine 3080 hat auch "nur" 4352 FP32+INT32 Cuda-Kerne, kann aber die INT32 auf FP32 switchen und hat dann 8704 reine FP32 Kerne.

Könnte mir auch eine 3090 holen, 2 sogar. Es ist mein größtes Hobby. Manche fahren Motorrad, handwerken oder haben eine Eisenbahn im Keller. Für mich ist es der PC. Aber da ich geizig bin, muss es nicht das nonplusultra sein.
Und der Sinn ein oder zwei 3090 zuholen ergibt sich mir bei dem Preisleistungeverhältnis einfach nicht. Bzw ich brauche nicht soviel Leistung da mein 32" 4k 120hz HDR OLED MONITOR (nicht TV) noch nicht auf dem Markt ist.
Derzeit habe ich ein 1080p 165hz Monitor. Und ich kann mit einer 1080 TI weder Raytracing noch 144hz bei allen Spielen erreichen. Vorallem beim kommenden Cyberpunk 2077. *hust*

Eine 3080, auch wenn die nur sogut wie eine 2080 Ti sein sollte, ist aber immernoch 500€ billiger als eine "neue" 2080 Ti.
Und wie schon einige sagten runtertakten um ca 30-40W zu sparen reicht schon um auf 2080 Ti Niveau zu kommen. Und wenn die 3080 DANN noch besser ist als die 2080 Ti habe ich meinen Kauf nicht bereut....
 
Zuletzt bearbeitet:
Gieriger Verbrauch, mal schauen wie sich das mit dem Temps verhält. Wird langam irgenwie ernüchternd.... vielleicht kann man da ja noch nebenbei Brötchen aufbacken.
 
Sehr enttäuschend, wenn man von der kurzen Verblendung durch (gefakte) doppelte Shaderkernzahlen und Marketingfolien mit angeblich xfach Leistung wieder runterkommt und der Alltag einen einholt udn merkt, dass NVidia auch nur mit Wasser kocht und die Karten leider doch keinen Deut besser sind als der Schritt von 1080 auf 2080, sondern alles nur über Stromaufnahme und Wattschleuder kommt.

Aber ob es am Ende so schlecht ist, wie du es hier machst? Da habe ich doch starke Zweifel.
Klingt irgendwie danach als liege dir etwas bezüglich Nvidia so schwer im Magen, dass dein ganzer Post aus Hetze besteht. ;)
 
den die über 10tausend shader müssen ja erstmal auf die strasse kommen, und dafür müssen die spiele diese technologie unterstüzen bzw programieren und anbieten und das wird dauern !

das ist ähnlich wie beim amd mit primitiven shaders usw, aber hey hauptsache die leistungs daten müssen ja stimmen !
Mit dem Unterschied, dass AMD es bis heute nicht geschafft hat, diese „Primitive Shaders“ in die Realität umzusetzen bzw. zumindest nicht so, wie sie es einst fantasiert hatten. Die 10k+ Shader von Nvidia sind wenigstens unter der Voraussetzung, dass es sich im jeweiligen Anwendungsfall um FP32-Berechnungen handelt, real und existent. Das hat nichts mit besonderer Technologie zu tun. Es muss einfach genutzt werden …
 
Moin, hab gerade noch'n Ründchen gespielt und jetzt vor wenigen Minuten mal HwInfo und FurMark angemacht.

gpu power.PNG


WQHD, MSAA off (bringt bei mit die höchste 'Power'):
Allerhöchstens 220W Leistungsaufnahme (Power-Limit-Mod).
Stock hat die GTX1080 glaub ca 180W Leistungsaufnahme .

Wenn ich jetzt an 320W, 350W oder 370W Stock Leistungsaufnahme denke, dann wird mir ganz schwindelig und meiner WaKü auch. :ugly: Da wird man einiges wegdrücken müssen und das wars dann wahrscheinlich mit 'komplett silent beim Zocken'. Naja gut... habe einen 420er und einen 280er Radi, aber die Verdopplung der Wärmeabgabe der dürfte sich deutlich bemerkbar machen.

Bin mal sehr gespannt auf die Benchmarks.
Hoffe da wird sehr genau auf die Leistungsaufnahme eingegangen.
Finde das mit den ~350W eigentlich zu krass, wenn das dann Turing nicht komplett versägt.
 
Moin, hab gerade noch'n Ründchen gespielt und jetzt vor wenigen Minuten mal HwInfo und FurMark angemacht.

Anhang anzeigen 1333120

WQHD, MSAA off (bringt bei mit die höchste 'Power'):
Allerhöchstens 220W Leistungsaufnahme (Power-Limit-Mod).
Stock hat die GTX1080 glaub ca 180W Leistungsaufnahme .
Guck dir mal diese Video an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
von igorsLAB
Oder ein aktuelles hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
ebenfalls von igorsLAB.
Du wirst sehen das die Spitzen locker 125W (bei Vega64 175W) überm durchschnitt liegen.
Deine 1080 könnte also sich mal biszu 350W aufeinmal genemigen.
Die Founders 3080 und 3090 sollte aber nicht über 410W oder so kommen.
Bei den Customs siehts anders aus, wenn 3x8-Pin angeschlossen sind...bei denen ist locker biszu 560W drinne.
Rechnung ist 8-Pin = 150W, 12-Pin=300W, PCI-E 12V/75W. Wobei am PCI-E wird auch 3,3V gezogen, das ist nicht wirklich spezifiziert...kann aber auch locker mal 30+W sein.
 
Guck dir mal diese Video an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
von igorsLAB
Oder ein aktuelles hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
ebenfalls von igorsLAB.
Du wirst sehen das die Spitzen locker 125W (bei Vega64 175W) überm durchschnitt liegen.
Deine 1080 könnte also sich mal biszu 350W aufeinmal genemigen.
Die Founders 3080 und 3090 sollte aber nicht über 410W oder so kommen.
Bei den Customs siehts anders aus, wenn 3x8-Pin angeschlossen sind...bei denen ist locker biszu 560W drinne.
Rechnung ist 8-Pin = 150W, 12-Pin=300W, PCI-E 12V/75W. Wobei am PCI-E wird auch 3,3V gezogen, das ist nicht wirklich spezifiziert...kann aber auch locker mal 30+W sein.
Der 12 Pin ist doch bis zu 400 Watt angegeben?
Theoretisch könnte die Spitzenlast, die nur ns anliegt also bei 12 Pin bis zu 475 Watt gehen, bei 2x 8 Pin bis zu 375 Watt und 3x Pin bis zu 525 Watt - aber wir sprechen hier über die Lastspitzen, im Mittelwert werden die Karten bei ihrer angegebenen TDP bleiben (ohne OC).
Und die Spitzenlast könnte sogar außerhalb der offiziellen Spezifikationen liegen, auch das ist bei allen Herstellern normal.
Wichtig ist nur, das die Spitzenlast werder zu lang noch häufig anliegt und/oder das Netzteil zu knapp dimensionierr und/oder zu alt ist. Sonst kann es halt passieren, dass das Netzteil abschaltet und der PC dunkel wird.
Aber warten wir mal die Tests von IgorsLab ab, dort wird das immer schön extern mit einem Oszilloskop aufgezeichnet, sodass jeder entscheiden kann, ob er es seinem Netzteil zumuten möchte oder kann.
Wenn man die offiziellen Angaben von nvidia als Anhaltspunkt nimmt, ist man zumindest auf der sicheren Seite, da dort etwas Reserve hinterlegt ist.
 
Klingt ziemlich Banane, oder? Ist es auch. Ich gehe auch für mein Geld arbeiten und kann's mir halt leisten. Ich würde aber niemanden dafür verurteilen oder herabwürdigen der das nicht kann.

Es geht doch nicht darum, ob man sich etwas leisten kann oder nicht.
Es ist naiv zu glauben, dass nur weil man sich keine 1500€ GPU kauft, dies tut weil man es nicht kann.

Die Reaktion von SoldierShredder war natürlich auch etwas mit Tunnelblick. Aber generell stimmt es natürlich schon, dass Leute denen der Preis egal ist einen Markt kaputt machen. Völlig unabhängig ob es sich um GPUs, Mikrontransaktionen oder sonstwas handelt.
 
Ein "normaler" Mensch bist du aber auch nicht, wenn du andere Menschen so herabwürdig titulierst, nur weil andere Menschen mehr Geld für ihr Hobby ausgeben als in deinem Weltbild 'angemessen' scheint.

Die Verkaufszahlen der dicken "Halo-" Karten sprechen -genau wie der gesunde Menschenverstand- eine deutliche Sprache. Über den Ton kann man ggf. diskutieren, wenn man das unbedingt möchte, über seine Inhalte eher nicht. Und Nein, auch nicht im PCGH-Forum.
 
Zuletzt bearbeitet:
Der 12 Pin ist doch bis zu 400 Watt angegeben?

Nur in Jensens Marketing-Show. Mag sein, dass der 12Pin-Adapter das physikalisch abkann, wenn der über 2x8Pin gespeist wird, ist bei 300W Schluss Und die Karten (FE)scheinen BIOS-seitig auch auf PT=117% (3080) bzw. 109% (3090) also ca. 375 Watt limitiert zu sein. Customs dito, mit vielleicht Wissensstand heute zwei, drei Modellen, die sich mehr trauen.
 
Naja, doch. Wir sind doch hier bei PCGH "EXTREME" und nicht PCGH "OttoNormalUser".
Das Forum hat vielleicht eine eigene " Normalität", das ändert aber nicht die Maßstäbe da draußen. Extrem interessenverengte Nerds sind eben nicht "normal" . Und nur darum ging es imho. Ist imho auch keine Pflicht, wenn man hier posten will, ohne Familie, zölibatär, ohne andere Hobbys, Jahresurlaube, Immobilie(n), etc. zu leben, nur um aller zwei Jahre 2K für hochspezielle Produkte auf den Kopf zu klopfen.

Ready for 8K! :hmm: really?

Edit: Es sind ja noch nicht mal Gamer, die so pushen. Gepflegt daddeln kann man mit dem "richtigen" Monitor < UHD auch in ein, zwei Jahren noch mit 'ner 5700 / 2070S...
 
Zuletzt bearbeitet:
die Frage ist ja wie da OC betrieben wurde.. bzw wie skillet die person ist..
einfach im Afterburner auf +mhz klicken funktioniert zwar theoretisch aber man bleibt ganz fix im powertarget hängen..

ich denke bei den Karten wird man bedeutend mehr mit UV erreichen da sie sehr viel Strom Schlucken und dementsprechend Heiß werden und im Powertarget hängen bleiben..
 
Das ist z.B. mal wieder eine News, wo ich denke, dass es gar nicht so schlecht für AMD aussehen wird. Immerhin scheint man NV gezwungen zu haben ihre Karte an die "Kotzgrenze" raufzuprügeln, die 5% mehr Takt sind letzlich uninteressant und bedingen sich bei 2-3% Mehrleistung, was statistisch irrelevant sein dürfte. Wenn NVs Infos über die AMD Karten richtig sind, dann macht dieser Schritt ja nur dann Sinn, wenn man befürchtet, dass AMD auf Augenhöhe liegt.
 
Zurück