Geforce RTX 3080 und 3090: Erste Informationen zur Chipgüte

Igor hat sogar vor einem Jahr mal geleaked, welcher Grafikkarten-Hersteller denn tatsächlich die Chips elektrisch vermisst und prebinned, also noch vor der Monatge der Karten. Das ganze war in einem Werksbesuchvideo bei PC-Partner, da lässt er es einem Nebensatz raus(bei ca. 18 min).
Wer Ratespiele mag: Es ist nicht Asus, nicht EVGA, nicht Powercolor, nicht KFA2/Galax, nicht MSI, nicht Palit, nicht PNY, nicht INNO3D, nicht Gainward und auch nicht Zotac(um mal bei die hierzulande kaufbaren Herstellern zu bleiben). Der Nichtgenannte ist es dann(falls ich einen vergessen hab, der Nichtgenannte bekanntere).

Es ist Gigabyte/Aorus.


Igor wird mittlerweile auch überall als Leaker gehandelt :)
Glaub von ihm schreiben mittlerweile mehr Hardwareredakteure ab, als sonst wo.

Ne totale Gurkenkarte muss aber auch nich sein, wo sie noch vergessen, die Folie um die Heatpipes zu entfernen, bevor sie die zusammenbauen.
Sowas gibts? Asus(Hab von denen schon fabrikneue Mainboards bekommen, da waren die Buchsen nicht festgeklebt, die hingen nur lose an den Kontakten, bzw fielen ab)?
 
Zuletzt bearbeitet:
Igor wird mittlerweile auch überall als Leaker gehandelt :)
Igor ist halt auch richtig gut informiert.
Andere Hardwareseiten schreiben eigentlich fast alles nur ab, während Igor oft an Insiderinformationen rankommt.
Denke er ist einfach ein sympathischer Typ mit viel Ahnung und da stecken ihm die Leute gern mal den ein oder anderen Happen.
 
Mag alles sein, nur wozu eigentlich heute noch den Aufwand machen? 15% merkt man sowieso nicht
Was soll das bedeuten? Mein Monitor hat zB 75 Hz. Wenn ein Spiel mit 70 fps läuft ist das nicht so gut, 115% wären 80 fps, dann kann ich vsync nutzen.
Ist nur ein Beispiel. Heutzutage laufen genausoviele Spiele in kritischen fps-Vereichen, wie vor 10 oder 20 Jahren. Ich würde niemals, wirklich niemals eine GPU nicht übertakten, wenn ich nicht gerade Klassiker spiele, die sich nicht per DSR auf 10K skalieren lassen oder „nur“ 2D-Grafik bieten.
Ich bin fast entsetzt über Deinen Post. Was meinst du damit?
 
Wie ist denn in der Regel die Chipgüte der Founders Edition? Sortiert Nvidia dort etwas aus oder nehmen sie die Chips auch so wie sie kommen?

Hab mich zu dem Thema auch mal versucht zu informieren. Mehreren Forenbeiträge einiger bekannter Hardwareseiten war zu entnehmen, dass NVIDIA bei Pascal und Turing für die FE "die guten Chips" verbaut. Sie würden also vorselktiert verbauen. Welche Güteklasse aus dem Binning dann verbaut würde ist den Beiträgen nicht zu entnehmen. Auch die Autoren haben sich jetzt nicht als Experten geoutet. Es ist also leider unklar für wie war man das halten darf, und ob das bei der Ampere Reihe nun genau so gemacht würde.
Ich denke mal NVIDIA hat ja Interesse die FE nicht als kleine Stückzahlen zu verkaufen und auch, dass diese FE entsprechend performant is. Porsche verkauft ja auch keine Motoren und baut diese selbst nur in n Käfer ein(ihr versteht was ich meine). Macht für mich schon Sinn wen NVIDIA Da Chips erster und zweiter Güte verbastelt. Und das hoffe ich auch denn die Customdesigns überzeugen mich nicht und ich werde mir zum ersten mal eine FE holen wollen. Die Kühlerlösung find ich klasse und wenn ich mal an Grenzen komme und dann irgendwann übertakten will (und hoffentlich kann da guter Chip ...), WaKü drauf.
Wäre by the Way sehr dankbar für verlässliche Infos seitens der PCGH Redaktion und anderen gut informierten Leuten zu diesem Thema. Und falls das noch unter einer Verschwiegenheitsvereinbarung liegt, könnte man vielleicht wenigstens baldige Infos in Aussicht stellen. Danke schonmal im Vorraus!
 
Die Zeit "bis Test" wird immer weniger ! :banane:
Wobei die für mich spannendsten Sachen ja wohl eh erst noch etwas später kommen.
Jedenfalls wohl noch nicht Montag("nur" 3080 ?).

Soll ja auf den 16. verschoben worden sein. Und dann auch nur die FE der 3080.
Die Enddaten für die NDAs der anderen Modelle sollen entsprechend verschoben sein. Also nächste Woche drei Tage vor Release der 3090 gibt's Tests für die FE der 3090.
 
Da die Qualität von RTX 3000 schwankend zu sein scheint, kann warten ja nicht schaden. Dann kann man auch abwarten was AMD bringt.

Ich hatte sehr viele GTX 1070 zur Hand. Hatte alle getestet. Die reagierten auch sehr unterschiedlich. Es ging damals, neben Wärme und Geschwindigkeit, aber auch um COOLWINE (Spulenfiepen).

Also, lasst euch nicht von der (Nvidia) Werbung blenden. Prüft, wartet ab und vertraut PCGH :-)
...und, mal ehrlich, 10 GByte sind zu wenig.

Wenn Sie den Speicher auf 20 Gbyte verdoppeln und BIN 2 raushauen ist es erst richtig gut.
 
Was soll das bedeuten? Mein Monitor hat zB 75 Hz. Wenn ein Spiel mit 70 fps läuft ist das nicht so gut, 115% wären 80 fps, dann kann ich vsync nutzen.
Ist nur ein Beispiel. Heutzutage laufen genausoviele Spiele in kritischen fps-Vereichen, wie vor 10 oder 20 Jahren. Ich würde niemals, wirklich niemals eine GPU nicht übertakten, wenn ich nicht gerade Klassiker spiele, die sich nicht per DSR auf 10K skalieren lassen oder „nur“ 2D-Grafik bieten.
Ich bin fast entsetzt über Deinen Post. Was meinst du damit?
Man kann sichs natürlich schönreden ;) 10-15% merkt man nicht. Haben hunderte Blindtests gezeigt.
 
Es ist doch ganz einfach: Einmal bleibt die Bildrate bei 75 und einmal halbiert sie sich. Wer das nicht merkt, spielt blind.
bei 10% weniger Leistung halbiert sich also die Bildrate? Ob ich 60 oder 66 fps habe macht keinen Unterschied. Ob ich 30 oder 33 habe auch keinen. Und wenn es 10 oder 11 FPS sind auch nicht, denn dann ist es schon unspielbar.
 
bei 10% weniger Leistung halbiert sich also die Bildrate? Ob ich 60 oder 66 fps habe macht keinen Unterschied. Ob ich 30 oder 33 habe auch keinen. Und wenn es 10 oder 11 FPS sind auch nicht, denn dann ist es schon unspielbar.
Ja das hat aber mit dem V-Sync zu tun.
Ich selber nutze G-Sync (kompatible) und hier wird es ja anders gehandhabt.
Und bevor man sagt ich will keinen teuren G-Sync Monitor holen oder will mich mit dem Monitor an Nvidia binden:
Der Monitor hat ca 300€ gekostet, ist 27", kann 1080p bis 165hz. Und läuft mit AMD Freesync und Nvidia G-Sync kompatible gleichgut.
60hz will ich eigentlich nicht mehr, den Unterschied zu 165hz merke ich stark beim zocken, aber leider geht noch nicht ALLES mit 165hz, daher will ich ja die 3080.

Zum Binning Igor meinte das es aktuell bei der 3080 drei Bins gibt. 30% normale (Bin0), 60% Gute (Bin1) und 10% (Bin2) Super-Chips. Die 3090 hat schlechteres Binning. Und er meinte die Reviewer Karten sind in der Regel Bin1-Bin2 Chips.
Mein i7-7700k ist z.b. vermutlich Bin0,5. Bis 4,9Ghz komme ich stabil bei 1,385V und ab 5Ghz, bei 1.4Vcore schalten sich bei mir im Test 2 Threads ab und die Stromaufnahme geht über die TDP.
Bei 4,5Ghz all Core mit 1,25V (weniger lässt er nicht zu) frisst er nur 65-70W. 4,9GHz zieht bis 90W und 5GHz zieht etwa 105W.
Bin2 hätte hier durchaus 5,2-5,4GHz stabil liefern können.
Bessere Chips ziehen weniger Strom, können höher übertakten und laufen kühler.
Das was hier Nvidia in den Spezis angibt ist auch das was man mit einem Bin0 bekommt. Aber Bin1 oder 2 Chips würden bei dem selben Setting bestimmt 20W oder 5-10 Grad weniger haben (Strom und Hitze hängen halt zusammen).
Je Kühler der Chip desto höher kann man ihn wieder übertakten.

Das ganze Binning ist bei AMD aber schon mal nach hinten losgegangen. Da sie Bin1 Chips als Latte nahmen. Und viele Leute die Bin0 Chips bekommen haben, kriegten auf einmal nicht das was auf der Verpackung stand. Um sich Rechtlich abzusichern haben sie nachträglich ein "biszu" eingetragen. Bei Intel hat man immer das bekommen was drauf stand UND mehr (OC). Bei AMD ist das schon fast das Maximum, bzw...ist überm Maximum bei manchen...
Vermutlich würde man das "aggressives Boosten" nennen....

Ich wünsch mir mal CPUs/GPUs ohne Boosttakt...das man sie so baut, das sie den besten Takt immer halten.
Speziel Mobile Chips sind da mal lächerlich...2GHz Basetakt und 4,5GHz boost..Und der Boost geht so....*hust*... das war der schon. Hauptsache man hat große Zahlen und sagt am Ende der Chip "kann" 4,5GHz....und NUR die 4,5GHz stehen vorne auf der Packung. Aber ich schweife ab :P
 
bei 10% weniger Leistung halbiert sich also die Bildrate? Ob ich 60 oder 66 fps habe macht keinen Unterschied. Ob ich 30 oder 33 habe auch keinen. Und wenn es 10 oder 11 FPS sind auch nicht, denn dann ist es schon unspielbar.
Ich nein halt extrem anfällig für Tearing, damit kann ich nicht spielen. Mein Monitor hat zwar auch Freesync, aber nur zwischen 48 und 75 Hz. Meistens spiele ich lieber klassisch mit VSync und dafür sollte man die FPS eben konstant über 75 halten. Sonst werden es 37 und das fällt störend auf. Du brauchst ja nicht übeetakten, aber für mich gehört das seit Jahrzehnten dazu. Bei unter 10% würde ich auch sagen, die Karte läuft schon nah am Limit. Aber bisher konnte ich immer wesentlich mehr rausholen. Das Powertarget deaktiviere ich bis Pascal per Bios, seitdem per Shuntmod.
 
Ich nein halt extrem anfällig für Tearing, damit kann ich nicht spielen. Mein Monitor hat zwar auch Freesync, aber nur zwischen 48 und 75 Hz. Meistens spiele ich lieber klassisch mit VSync und dafür sollte man die FPS eben konstant über 75 halten. Sonst werden es 37 und das fällt störend auf. Du brauchst ja nicht übeetakten, aber für mich gehört das seit Jahrzehnten dazu. Bei unter 10% würde ich auch sagen, die Karte läuft schon nah am Limit. Aber bisher konnte ich immer wesentlich mehr rausholen. Das Powertarget deaktiviere ich bis Pascal per Bios, seitdem per Shuntmod.
Ich meine damit, dass du bei +10% auch kaum öfter in solche Limits kommst. Reden wir von 30%, dann ja. Aber dass es bei +10% regelmäßig genau über gewissen Limits bist und sonst nicht ist halt eher Glaubenssache.
Da erreicht man schon viel mehr mit dem Deaktivieren gewisser Effekte oder ähnlichem.
Ich glaube ja auch nicht, dass ich bei +10% mehr PS beim Auto plötzlich deutlich schneller in die Arbeit komme. Wenns hochkommt erwische ich halt mal alle 10 Fahrten eine Ampel schneller. Ich kann auch damit nicht besser überholen, dazu reichen 10% einfach nicht.
 
Ich meine damit, dass du bei +10% auch kaum öfter in solche Limits kommst. Reden wir von 30%, dann ja. Aber dass es bei +10% regelmäßig genau über gewissen Limits bist und sonst nicht ist halt eher Glaubenssache.
Da erreicht man schon viel mehr mit dem Deaktivieren gewisser Effekte oder ähnlichem.
Ich glaube ja auch nicht, dass ich bei +10% mehr PS beim Auto plötzlich deutlich schneller in die Arbeit komme. Wenns hochkommt erwische ich halt mal alle 10 Fahrten eine Ampel schneller. Ich kann auch damit nicht besser überholen, dazu reichen 10% einfach nicht.
Bei so sachlicher Kritik will ich nicht widersprechen. Natürlich werde ich weiter meine Grafikkarten übertakten, wenn zweistellige Tugewinne möglich sind. Aber vielleicht bringt mir das gar kein flüßigeres Spielerlebnis. Ich müsste meinen eigenen Blindtest machen. Vielleicht hast du ja Recht.
 
Bei so sachlicher Kritik will ich nicht widersprechen. Natürlich werde ich weiter meine Grafikkarten übertakten, wenn zweistellige Tugewinne möglich sind. Aber vielleicht bringt mir das gar kein flüßigeres Spielerlebnis. Ich müsste meinen eigenen Blindtest machen. Vielleicht hast du ja Recht.
Ich will es dir ja nicht nehmen, manchmal geht es ja mehr um den Spaß an der Sache selbst, als um das reine Ergebnis.
Meine erste übertaktete GPU war eine Voodoo 1 und meine erste übertaktete CPU ein Pentium 150. Ich hab bei mir oft den Blindtest versucht und manchmal habe ich tatsächlich geglaubt es macht einen Unterschied, aber meist war eben keiner da. Wenn du tatsächlich ein ausnahmespiel hast, das genau wegen dieser 10% über deine dir gesetzte Grenze drüberkommt, macht es natürlich einen Unterschied. Bei allen anderen Szenarien habe ich halt meine Zweifen, weil man 10% höchst selten bemerken sollte (und dann sogar untertakten/volten kann).
Aber schön, dass wir aufeinander zugehen können :)
 
Hallo, ich hab mir eine 3070 ergattern können und würde gerne mal mit dem übertakten anfangen. Ich schau grade das alte PCGH-Video zu MSI Afterburner, aber richtig viel bringt mir das nicht.
Hat vielleicht ein erfahrener Übertakter Zeit und Lust mit mir in Kontakt zu treten? :)

Edit: ich habe die kfa2 sg edition. diese witzlosen apps von denen zum übertakten werden von windows aber nicht zugelassen aus sicherheitsgründen.
 
Zuletzt bearbeitet:
Zurück