HardwareHighlander
Gesperrt
Also eine 2080ti FE darf max 325 ziehen und meine Karte max 366 wobei sie auch 375 raushaut und das ist Quatsch? O. K..
Ja, ist generell vieles Quatsch was du sagst, alleine schon, dass du erst allgemein über den Stromverbrauch eine Ti redest I'm Bezug zu dem des Nachfolgers, nachher dann von Custom Karten mit OC und zuletzt dann noch von deiner Karte und Ref Karten mit maximierten Powerlimit und tust so als hättest du ursprünglich das gemeint.
Bitte wie soll eine 3080ti bei 125Watt 50% mehr leisten. Erklär es mir einfach.
Das ist sogar noch wahrscheinlicher als deine mögliche Annahme, dass sie 50% mehr leistet, ohne Effizienter zu sein und die 50% dann auch nur noch unter DXR, womit am Ende dann 20% über bleiben bei 0% mehr Effizienz.
Und plötzlich braucht dann die 2080 Ti nur noch 250 Watt und nicht mehr 330.
Das wären dann 2080 Ti Leistung +50% und etwa 140 bis 150 Watt Strombedarf, was ich aber für unwahrscheinlich halte, für ausgeschlossen aber nicht und das liegt an dem riesigen Fertigungssprung, aber weit wahrscheinlicher als 20% mehr Performance und das nur wenn RT zugeschaltet wird.
Du vergisst einen wesentlichen Faktor, nVidia könnte die gewonnene Effizienz und den Leistungszuwachs einfach in die Bildqualität, bei einer höheren Raymenge investieren, ohne das man DLSS für die 3080ti noch bräuchte. Native raytraced Auflösung unter 1k, 2k, 4k!
Ist die Raymenge wirklich das einzige Performancekriterium? Wieso habe ich bei Metro Exodus eine viel viel höhere Raymenge als bei Battlefield 5 und dennoch ist die Performance in Metro teils besser?
Normalerweise ohne viel Shader Power, wenig RT Power, ergo wird Nvidia niemals nur die RT Cores aufpumpen, weil das nix bringen wird.
Dir ist immer noch nicht klar, dass es um Betriebsspannungen geht....
Eine Betriebsspannung von 0,5 Volt wird für Halbleiter schwierig...
und Watt eigentlich nur der Wert für die Abwärme ist, der bei einer bestimmten Vcore und Auslastung aller Einheiten abtransportiert werden muss, weil eine GPU die gesamte elektrische Energie, die sie aufnimmt in Wärme umwandelt.
Und ich dachte die GPU erzeugt noch Strom, wenn man sie einbaut..., gut dass du mir das erklärt hast.
250 Watt maximal sind für nVidia kein Problem, wenn man nicht sogar höher geht und warum sollte man das nicht auszunutzen wissen
Wie hat Nvidia denn bei Maxwell die Leistungsaufnahme im gleichen Prozess gesenkt? Nur mit der Versorgungsspannung?