Nvidia Ampere: GTX 3080 mit 2,1 GHz GPU, 4,75 GHz RAM und 12-Pin-Stecker?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere: GTX 3080 mit 2,1 GHz GPU, 4,75 GHz RAM und 12-Pin-Stecker?

Übers Wochenende gab es gleich mehrere Leaks und Gerüchte zu Ampere: Spannend waren vor allem der Eintrag im Userbenchmark und der sich abzeichnende 12-Pin-Stecker.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere: GTX 3080 mit 2,1 GHz GPU, 4,75 GHz RAM und 12-Pin-Stecker?
 
Interessanter Leak...

Wenn ich von einer Titan X(p) ausgehe, dann hat die neue Titan Ampere knappe 100% mehr Leistung in WQHD, also keine Überraschung...

12Pin wäre eine Option um den Standard von 8Pin zu umgehen und deutlich mehr Leistung den Karten zur Verfügung zu stellen.
 
Anstatt sich neue Stromstecker- und Netzteilprobleme durch zu hohe Wattaufnahmen heranzuholen, sollte man mal ein wenig umweltbewusster denken und keine Karten mehr mit 300 Watt und mehr auf den Mainstreammarkt schmeißen.
Man sollte das tunlichst per Gesetz regeln, damit sich auch alle daran halten.
Ja, ich will auch möglichst viel Leistung (und das für möglichst wenig Geld), aber nicht um jeden Preis.
Würde es passende Gesetze (zumindest EU-weit) geben, würden sich die Hersteller auch mal etwas einfallen lassen müssen, anstatt im einfachsten Fall erst einmal Takt, Shader und somit die Volt- und Wattkeule auszupacken.
Bestes Beispiel in der Vergangenheit sind Vega64 und der 9900KS.
Per Diskret wären die viel besserer Abstimmung (die man ja stellenweise sogar selber manuell noch vornehmen kann) vielleicht 5% langsamer gewesen, bei mindestens 1/3 weniger Leistungsaufnahme.
Keiner hätte was gemerkt, keiner hätte deswegen rumgemuckt, und die Foren wären auch von den diversen Diskussionen verschont geblieben.
Vielleicht hätten die Hersteller sogar ein paar Einheiten mehr abgesetzt, weil man sich damit ja auch die Negativanmerkungen bei Tests erspart hätte.
Ich bin zum Beispiel bewusst auf einen 3700X gegangen. Der braucht im Vergleich fast nichts und ist nicht sehr viel langsamer als ein bis zu xxx Watt Monster.
Mag auch etwas am guten Preis-Leistungsverhältnis gelegen haben, aber ich wollte nunmal auch nicht mehr mein System mit lauter Stromfressern vollstopfen und dann eine dicke Heizung im Somemr stehen haben.
Schließlich hatte ich letztes Jahr im Zimmer abends 37 Grad im Raum, da mag man wochenlang nicht mal spielen.
Nur vorm Dönerspieß machts noch weniger Laune. ^^
 
Interessanter Leak...

Richtig, obwohl mein erster Gedanke eher war "lecker". Das macht wirklich Lust auf mehr! :hail:

Wenn ich von einer Titan X(p) ausgehe, dann hat die neue Titan Ampere knappe 100% mehr Leistung in WQHD, also keine Überraschung...

Unabhängig von der Titan sieht das alles sehr gut aus. Auf jeden Fall zehn mal besser als all diese "Turing ist nur ein Pascal Refresh" Getratsche im Vorfeld. Da scheint für jede Klasse etwas dabei zu sein. Hoffen wir die Preise reduzieren sich ebenfalls.

12Pin wäre eine Option um den Standard von 8Pin zu umgehen und deutlich mehr Leistung den Karten zur Verfügung zu stellen.

Umgehen ist eigentlich nicht der verfolgte Ansatz. Eher Vereinheitlichung und Vereinfachung der Stromversorgung. Anstatt all die Kombinationen von 6+8 Pin wie 6,6,8 oder 8,8,6 bzw. 8,8,8 bei ultra OC Karten machen, hat man eine Lösung für alles. Die alten Kabelstränge machen einen doch verrückt.

Dann lieber 1x 12pin for alles über 75W vom PCI-Express slot und es hat sich. Kombiniert man das in Zukunft mit dem neuen Intel 10-pin AXT12VO für die Mainboards, hat das ganze Kabelgefummel endlich ein Ende! ;)

Ich frage mich echt wieso nVidia soviel in die Wagschaale wirft, was wissen die über Big Navi.

Ich glaube das hat mit BigNavi nichts zu tun. Nvidia wollte einfach nur sich selbst übertreffen und die mittelmäßigen Verkäufe von Turing übertrumpfen. Die wollen diesmal eine neue Generation wie damals die 8800 ULTRA / GTX / GTS & GT raushauen.

In dem Fall konkurrieren sie nur mit sich selbst. Daher gilt es Turing intern vernichtend zu schlagen! Ähnlich wie damals von 7900er auf 8000er Geforce Reihe.
 
Interessanter Leak...

Wenn ich von einer Titan X(p) ausgehe, dann hat die neue Titan Ampere knappe 100% mehr Leistung in WQHD, also keine Überraschung...

12Pin wäre eine Option um den Standard von 8Pin zu umgehen und deutlich mehr Leistung den Karten zur Verfügung zu stellen.

Das ist wie been schon beschrieben der völlig falsche Weg.
Warum soll man sich Gedanken um neue Kabel und Netzteile machen, nur um die Leistung von Grafikkarten noch weiter zu erhöhen?
Die Techniker sollen ihre Arbeit machen und im Rahmen des technisch Machbaren alles aus dem Silizium herausquetschen.
Andere haben das gleiche Problem.
Vor allem wenn ihr noch jung seid, sollte man sich mal die Berichte der letzten Zeit anschauen, was mit der Umwelt passiert.
Grönland und der Nordpol schmelzen völlig ab, die Eisbären sind schon jetzt totgesagt, die wird es vermutlich in 20 Jahren nicht mehr geben.
Das hat auch große Auswirkungen auif unser Klima hier.
Und dann wollen die Leute in toller Trump Tradition am liebsten 500 Watt Karten zum neuen Standard erklären, wo man dann 12-Pin-Anschlüsse und neue Netzteile für benötigt?
Hallo?
Gut, wenn es danach ginge, dürfte jeder von und nur noch ein Low-Power-Ultrabook sein Eigen nennen.
Aber so weit will ich nicht gehen, ich bin auch kein "Öko".
Ein klein wenig kann man dennoch tun, indem man die völlige gewissenlose VErschwendung und Vergeudung zumindest etwas einschränkt.
Ich habe eine 1080 und einen 3700X, das ist beileibe nicht ganz wenig, aber sicher noch weit weg von einer 1080 Ti und einem 9900KS, was ich mir locker hätte leisten können.
Im Grunde muss es aber von den Herstellern kommen, udn die Politik muss sich da auch dringend mit einschalten, so wie es bei Plastik etc. auch sehr dringend getan werden muss.
Damals hat jeder nämlich Wasserflaschen gekauft, das war nie ein großes Thema, aber jetzt kaufen alle nur noch Plastik, weil es bequemer udn angenehmer ist, ok, das sehe ich auch, aber wenn das zugleich auch noch 4 mal günstiger ist, dann verstehe ich die Welt nicht mehr.
Eine Kiste Wasser 0,7L ohne Blubber drin (lange gesucht) 7,49 Euro zu 2,49 für 1L Plastik?
Jungens, da bin auch ich zu geizig für.
Dann kauf eich halt beim Lidl 1,5L für 0,19 Euro aus 100% Recyclinmaterial, da ist der Kostenunterschied nochmal größer.
Da sieht man also, wie das Konsumverhalten und die Müllerzeugung gesteuert wird, ohne dass man es selber merkt.
Achtet da mal drauf, versucht mal 10% weniger Abfall einzukaufen.
 
Es ist nahezu unfassbar welche Verbrauchsmonster hier Nvidia auf die Gamer lost lässt, sowas ist nicht mehr zeitgemäß und sollte durch den Verbraucherschutz unterbunden werden!

Sehr interessanter Ansatz....

1. Ist keiner gezwungen so ein Verbrauchsmonster zu kaufen (ich möchte nur kurz die SUV's erwähnen)
2. Werden die erwähnten >300Watt nur erreicht, wenn man die Karten @Stock oder mit OC betreibt.
3. Kann man auch Undervolten wenn man mag oder das PowerTarget runter setzen.
4. Werden diese Karten garantiert nicht günstig, sodass man davon ausgehen kann, dass nicht so viele GPU's davon im Umlauf kommen werden.

Die Umwelt immer wieder in diese Diskussion zu bringen, macht es auch nicht besser.
Wenn man so eine Diskussion führt, sollte man bei den Grundsätzen anfangen und dort beginnen.
 
Ich frage mich echt wieso nVidia soviel in die Wagschaale wirft, was wissen die über Big Navi.

Na zum Spaß macht das ein börsenorientiertes weil börsennotiertes Unternehmen nicht! Wär mal ein Fingerzeig auf Big Navi! Wer sagt denn, das Big Navi nur 5120 Shader hat? AMD muss ja nicht zwingend an 64 Shadern per CU festhalten! Jensen Huang will eben als CEO vermeiden, das es ihm ebenso wie Intel geht und der Aktienkurs unter Druck gerät!
 
Es ist nahezu unfassbar welche Verbrauchsmonster hier Nvidia auf die Gamer lost lässt, sowas ist nicht mehr zeitgemäß und sollte durch den Verbraucherschutz unterbunden werden!

Hat da jemand Angst, dass AMD mal wieder nicht an NV rankommt? ;)
Haste sonst auch rumgejammert, sobald hier jemand 3-4 Way SLI/CF hatte oder einen MoRa und die CPU bis auf Anschlag übertaktet?
 
Ja gut aber was ist das für ein Signal welches Nvidia hier in die Welt setzt, durch den 12 pin Stecker wird die GPU in die Lager versetzt bis zu 600 Watt verbrauchen zu können.
Greta sollte sich mit Jensen mal an einen Tisch setzen und ihm die Leviten lesen!

Schön ist das nicht, da gebe ich dir recht, nur wann zockt man wirklich mal einige Stunden am Stück/Tag, das ist relative wenig. Interessanter wären andere Bereiche, die deutlich stärker die Umwelt beeinflussen und davon gibts deutlich mehr und vorallem schlimmere - die SUV sind da nir ein kleines Beispiel, geht weiter über Kreuzfahrten und Innerlandsflüge....

Hat da jemand Angst, dass AMD mal wieder nicht an NV rankommt? ;)
Haste früher auch rumgejammert, sobald hier jemand 3-4 Way SLI/CF hatte?

Im Endeffekt hat er schon Recht, was den Verbrauch angeht, ich glaube nicht das es etwas mit AMD zu tun hat. Wenn man sich die vorherigen Generationen von nvidia anschaut, hat man gesehen, das die deutlich mehr auf Effizienz gegangen sind, ausgenommen die Ti und Titan. Wenn die Leaks jetzt aber so stimmen sollen, dann werden alle Karten deutlich mehr verbrauchen als die Vorgängergeneration, dann sind die Zeiten mit 100 Watt Verbrauch vorbei...
 
Es ist nahezu unfassbar welche Verbrauchsmonster hier Nvidia auf die Gamer lost lässt, sowas ist nicht mehr zeitgemäß und sollte durch den Verbraucherschutz unterbunden werden!

Es gibt ja nicht schon genug Gesetze und Verordnungen an welche man sich zu halten hat. Wem der Verbrauch zu hoch ist solls einfach nicht kaufen und fertig.

b2t

Das Nvidia gerne ihr eigenes Süppchen kocht (PhysX, Rt Cores, etc) ist zwar nicht neues, aber das mit dem 12-Pin-Stecker muss doch nicht sein.:schief:
 
Ich glaube das hat mit BigNavi nichts zu tun. Nvidia wollte einfach nur sich selbst übertreffen und die mittelmäßigen Verkäufe von Turing übertrumpfen. Die wollen diesmal eine neue Generation wie damals die 8800 ULTRA / GTX / GTS & GT raushauen.

In dem Fall konkurrieren sie nur mit sich selbst. Daher gilt es Turing intern vernichtend zu schlagen! Ähnlich wie damals von 7900er auf 8000er Geforce Reihe.

Es wäre uns allen zu wünschen, noch halbwegs bezahlbar wie damals und AMD schafft mit Big Navi auch nen großen Sprung, etwas besseres könnte es für uns als Kunden nicht geben.

Mal sehen wie es im November mit dem Markt aussieht. Es eilt ja bei den meisten nicht wirklich
 
Der Verbrauch interessiert mich bzgl. Kosten, Stecker, Umwelt usw. überhaupt nicht. Bei dem was ich im Jahr spiele macht das pro Jahr keine 10€ aus und 2x mehr zur Arbeit fahren bläst mehr CO2 in die Umwelt als die paar Hundnert Watt der Grafikkarte.

ABER: Die 60+ db die ein Luftkühler absondert beim Versuch, derartige Wärmemengen an seine Umgebung abzugeben sind ein absolutes No-Go. Die Karte kann so schnell sein wie sie will, bei einer solchen Lautstärke kaufe ich sie definitiv nicht.
 
Zurück