EVGA RTX 2060 KO mit TU104: Bis zu 48 Prozent mehr Leistung in einigen Szenarien

interessant wäre zu wissen ob diese 2060-versionen dann auch entsprechend mehr raytracing-cores haben und man diese freigeschaltet bekommt.
das kann nützlich sein für mehr leistung bei der lichtberechnung, das man die auch vernünftig nutzen kann, nicht wie bei der normalen menge an raytracing-cores..
evtl bessere tensor-core-leistung ist für mich dabei uninteressant, ich halte von dem ganzen upsampling gedöns nichts.

Die RT Cores machen aber nicht die eigentliche RT Berechnung, sondern beschleunigen diese nur in gewissem Maße. Das eigentliche RT läuft über die Shader und nach Hochrechnung wird einzig die 2080ti/Titan RTX und vielleicht die 2080 Super (habe zu dieser noch keine Rechnung gesehen) durch die Anzahl der RT Cores im RT ausgebremst. Du kannst das vergleichen mit einem Turbo beim Auto. Bei einem kleinen Motor bringt es irgendwann nichts mehr einen noch größeren Turbo einzubauen weil das Volumen der Brennkammer und die Verdichtung begrenzt ist und man mit mehr Luft dann kein zündfähiges Gemisch mehr erhält.
 
nene, ich glaube er hat schon recht. So einfach ist das mit "Teildefekt" nicht, die "vielen" Fehler müssten in gemeinsam deaktvierbaren Arrays liegen. Das es für eine 2070 nicht mehr reicht, aber für eine 2060 noch reicht, halte ich für fast unmöglich. Bei so einer erheblichen Defektrate von RT Cores oder was auch immer, ist der gesamte Chip Schrott. Es geht hier ja nicht um CPUs, in denen (in sich abgeschlossene) Kerne komplett deaktiviert werden können. Die Cores in einer GPU sind viel komplexer angeordnet und verknüpft.

Zu testen, die Fehler zu lokalisieren und zu "deaktivieren" wäre viel zu aufwendig und zu teuer. Man würde den ohnehin schon sehr teuren Chip durch noch teurere Nachbehandlung gänzlich unprofitabel machen.

Ich denke auch, dass hier an sich einwandfreie Überproduktion aus der Oberklasse in der deutlich absatzstärkeren Mittelklasse verwurstet wird.

Getestet werden müssen die Chips sowieso und auch die einzelnen Funktionseinheiten einer GPU lassen sich getrennt deaktivieren. Was aber stimmt: Um 1/3 des Chips lahmzulegen müssen entweder einige sehr kleine, zentrale Steuerungsbereiche defekt sein oder gleich eine ganze Reihe von Fehlern über den Chip verteilt vorliegen. Beides ist eher unwahrscheinlich, zumal Nvidia mit einem sehr ausgereiften Fertigungsprozess arbeitet, und es gäbe eine ganze Reihe höherpreisiger Modellreihen, in denen man TU 104 mit geringen Schäden verwerten könnte.

Also hat Nvidia entweder deutlich mehr gute TU 104 auf Lager, als sie bis zur Einführung der 3000er als RTX 2070S/2080/2080S abverkaufen können oder sie haben in den letzten 18 Monaten einen Haufen Ausschuss angesammelt, der jetzt weg soll. Ersteres halte ich für unwahrscheinlich; die RTX 2070 Super ist schließlich schon ein Reaktion auf die Konkurrenz, um in einem umkämpften Markt besser dazustehen. Eine kleine Preissenkung in dieser Klasse würde den Abverkauf von TU 104 deutlich beschleunigen und AMD unter Druck setzen – Win Win für Nvidia. Aber auch der zweite Erklärungsansatz spricht für eine baldige Ablöse der aktuellen Modelle: Normalerweise wird der Ausschuss gesammelt, bis man genug Exemplare für ein eigenes, auf die spezifischen Möglichkeiten optimiertes Modell hat. So kam es zum Beispiel zur GTX 660 Ti und auch diesmal wäre ein 256-Bit-Salavage-Produkt eine saubere Breitseite auf AMD gewesen. Nvidia hat aber offensichtlich nicht genug teildefekte TU 104, um eine weitere Karte zu rechtfertigen. Und sie können bereits absehen, dass sie auch nicht mehr genug zusammenbekommen. Da der Abverkauf einer kleinen Charge recht schnell über die Bühne geht, spricht die Existenz dieser Karten in meinen Augen dafür, dass die Produktion des TU 104 bereits eingestellt wurde.
 
Die RT Cores machen aber nicht die eigentliche RT Berechnung, sondern beschleunigen diese nur in gewissem Maße.
Semantik. Die RT-Cores berechnen die Strahlen vollständig, die Shader entscheiden dann was mit den fertig berechneten Strahlen geschieht - zB neue Strahlen aussenden oder die Daten verwerten. Und genau der Teil des Schnittstellen-suchens ist logisch einfach aber Rechenaufwendig.
Die RT-Cores selbst sind auch bei einer RTX 2080 Ti ein limitierender Faktor - je nach implementierung.
Leider wird bei den AAA-Titeln das Raytracing an sich auf einen sehr kurzen intervall beschränkt - nur für den Bruchteil eines Frames laufen sie, dort aber ins Powerlimit. Ist so natürlich deutlich einfacher zu programmieren, nebenbei und langsamer laufen lassen wäre aber energietechnisch effizienter, was insgesamt eine höhere Leistung ermöglichen würde.
 
schade das gamernexus nicht versucht hat ein 2080 BIOS auf die Karte zu flashen
vielleicht könnte man damit auch die Spiele Leistung raus kitzeln und nicht nur mehr Leistung in Blender.
Auch wenn man damit vielleicht nur die RT Cores freischaltet, hätte man mehr ray tracing performance

Den Versuch kannst du dir sparen, oder hast du schon was von einer 2070 Super gehört die man zu einer 2080 flashen konnte? Nvidia beschneidet die GPUs per Laser. Da ist absolut gar nichts zu machen.


Gesendet von iPhone mit Tapatalk
 
Zurück