Nvidia Geforce RTX 2080 (Ti): Diese technischen Daten sind wahrscheinlich

[...]
Aber fast 1/3 der Die-Fläche gehen dabei beim GT 104 allein für RT-Einheiten drauf.
Damit konnte ja niemand rechnen, dass Nvidia so viel Chipfläche allein nur für RT opfert.
[...]
Weil Nvidia auch nicht 1/3 an Die-Fläche für die RT-Cores verwendet.
Es ist deutlich weniger, wie viel genau kann man höchstens aus echten die-shots herauslesen.
 
Hast du die News dazu im 3dcenter nicht gelesen?

Dies sind immerhin ~212mm² oder ~28% der Chipfläche, was zwischen einem Drittel und einem Viertel der Chipfläche rangiert (die grobe Angabe "ein Drittel" ist demzufolge etwas zu hoch gegriffen). Selbst wenn man sich hierbei noch etwas verspekuliert, kommt wahrscheinlichst mindestens eine Größe von 25% aka einem Viertel der Chipfläche für die RayTracing-Funktionalität heraus.
Hardware- und Nachrichten-Links des 15. August 2018 | 3DCenter.org

So wie es aktuell aussieht sind die neuen Geforce Ableger nur abgespeckte Versionen der Quadro 8000 und 6000 die auf der Siggraph vorgestellt wurden.
Aber genau werden wir es ja bald wissen wenn sie auf der Gamescom vorgestellt werden.
 
Zuletzt bearbeitet:
@RivaTNT2:
Der GV 104 ist deutlich größer als der Vorgänger GP 104.
Allein damit würde ein deutlicher Sprung in der Leistung möglich sein.
Aber fast 1/3 der Die-Fläche gehen dabei beim GT 104 allein für RT-Einheiten drauf.
Damit konnte ja niemand rechnen, dass Nvidia so viel Chipfläche allein nur für RT opfert.

Deshalb lässt Nvidia auch noch längere Zeit parallel die 1080, 1070, 1060, u.s.w. weiter laufen.

Abgesehen davon hat es sich für Käufer einer 980ti eine 1080 nicht wirklich gelohnt, oder bei 780ti eine 980.
Besonders ist jetzt nur das es die 2080ti deutlich früher gibt.
Wer also auf RT verzichten kann, sollte lieber bei Pascal bleiben, und auf die 7nm GPUs im nächsten Jahr warten.
Wie meinst du das mit Sprung in der Leistung? Anzahl der Shader und Takt ist ja schon bekannt, von daher kann man @Stock wohl davon ausgehen.
Dass viel vom Die für RT drauf geht deckt sich ja mit meiner Meinung, dass auf solche Features eben viel gesetzt wird.

Klar, die 1080 hat sich nicht gelohnt. Die Ti war jedoch schon nochmal ein deutliches Plus und ist diesmal ja sogar von Anfang an dabei.
 
gibt es schon "Hochrechnungen" wieviel die Karten schneller sein werden FALS die Daten wirklich stimmen?

Ohne zu wissen was die Architektur besser kann ist das wenig aussagekräftig - aber meinetwegen:

Basis = 1080Ti Stock definiert als 100%.
1080Ti: 3584 Shader, 1582 MHz Standardboost

Infos zur RTX2080 aktuell: 2944 Shader, 1710 MHz Standardboost
Infos zur RTX2080Ti aktuell: 4352 Shader, 1545 MHz Standardboost

Daraus ergeben sich rein rechnerisch und ohne IPC-Verbesserungen sowie den Einfluss der höheren Speicherbandbreite durch GDDR6 und ohne zu wissen wie hoch der echte Boost sein wird:
RTX2080 = 88,8 %
RTX2080Ti = 118,6 %

oder auf Deutsch gesagt die 2080 ist etwas langsamer als eine 1080Ti und die 2080Ti ist etwas schneller.

Dadurch, dass die Shader selbst aber sehr wahrscheinlich schneller geworden sind, die Bandbreite höher ist und die Taktraten (mutmaßlich) etwas höher boosten da die TDPs auch etwas höher sind würde ich auf all das geschätzte 15-20% drauflegen. Bedeutet eine 2080er wird wahrscheinlich ein bisschen schneller als eine 1080Ti und die 2080Ti schätze ich auf 30-40% schneller als die 1080Ti.

Das ist aber blind gerechnet und muss mit der Realität nicht zwingend was zu tun haben.
 
Hast du die News dazu im 3dcenter nicht gelesen?
Hardware- und Nachrichten-Links des 15. August 2018 | 3DCenter.org

So wie es aktuell aussieht sind die neuen Geforce Ableger nur abgespeckte Versionen der Quadro 8000 und 6000 die auf der Siggraph vorgestellt wurden.
Aber genau werden wir es ja bald wissen wenn sie auf der Gamescom vorgestellt werden.
Ich lese fast nichts auf der Hauptseite, weil es nicht selten Quatsch ist.
Wie eben auch diese Ausführung:
Einen (hypothetischen) "GP101"-Chip, hochgepumpt von 3840 auf 4608 Shader-Einheiten und mit GDDR6- anstatt GDDR5X-Speicherinterface, aber ohne RayTracing-Funktionalität, hätte nVidia also für ~542mm² auflegen können. Da der reale GV102-Chip nun aber 754mm² wiegt, geht der "Rest" für RayTracing-Funktionalität drauf, sprich Tensor-Cores und den RT-Core (samt größerem Level2-Cache). Dies sind immerhin ~212mm² oder ~28% der Chipfläche, was zwischen einem Drittel und einem Viertel der Chipfläche rangiert (die grobe Angabe "ein Drittel" ist demzufolge etwas zu hoch gegriffen). Selbst wenn man sich hierbei noch etwas verspekuliert, kommt wahrscheinlichst mindestens eine Größe von 25% aka einem Viertel der Chipfläche für die RayTracing-Funktionalität heraus. Selbige Angabe ist sogar noch vergleichsweise handzahm, in nVidias (natürlich nur schematischen) Schaubildern nehmen Tensor-Cores und RT-Core gern gleich die Hälfte der Chipfläche ein.
Nvidia hat gar keine die-size Einteilung präsentiert, sondern einfach drei Rechtecke gezeichnet und die theoretischen Durchsatzraten dort nieder geschrieben.
Wenn man das nicht sofort erkennt, dann versteht man schon grundsätzlich nichts von der Materie in diesem Bezug.
Und ebenso schwach fällt die Extrapolation von dem Flächenverbrauch von Pascal-Chips auf Turing aus, wo man meint der Rest muss ja dann auf Tensor/Raytracing-Cores entfallen.
Dabei weiß man gar nicht wie viele GPCs es gibt, welche Front-End-Änderungen bei Turing vorgenommen worden sind, wie sehen die Cache-Sizes im Vergleich zu Pascal aus und so weiter.
Da gibt es soviele etliche Unbekannte, sodass eine Vorabschätzung von Anfang an auf keiner seriösen Grundlage steht.
 
@Incredible Alk:
Nee, so kann man da nicht heran gehen.
Die RT-Einheiten auf dem Chip des GV 104 sind hauptsächlich nur für RT da.
Also müsste man die Die-Fläche dafür abziehen, den genauen Takt wissen, und GDDR6 mit etwas höherer Bandbreite berücksichtigen.

@Locuza:
Genau werden es die Tests zeigen wie sich die Änderungen auswirken werden.
Trotzdem gab es auch früher vor einem Release Prognosen, die besonders im 3dcenter oft dicht dran waren.

Und selbst als untere Schätzung wären es immer noch 1/4 der Die-Fläche allein nur für RT-Einheiten, was nicht wirklich wenig ist.
Auf dem Schaubildern von Nvidia selbst sind es übrigens fast 50% der Fläche.
Später wird es bestimmt wieder echte Screenshots der Dies geben, wo man dass besser sehen kann.
 
Zuletzt bearbeitet:
Habt ihr noch 2 Tage Zeit? Ich zieh mir eine auf der Nvidia Celebration und schick sie rüber.:daumen:
Im ernst, wartet es doch ab bevor noch einer weint^^ 2 Tage dann gibt es für jederman einen kleinen Einblick
Theorie Theorie Theorie
 
Naja die können auch nicht zaubern. Da wir jetzt seit Jahren auf dem 16nm-Node rumgurken (die 12nm sind auch nur "16+") ist nicht zu erwarten dass irgendwas irre viel effizienter werden würde. Das kommt dann 2019 mit 7nm.
 
[...]
Und selbst als untere Schätzung wären es immer noch 1/4 der Die-Fläche allein nur für RT-Einheiten, was nicht wirklich wenig ist.
Auf dem Schaubildern von Nvidia selbst sind es übrigens fast 50% der Fläche.
Später wird es bestimmt wieder echte Screenshots der Dies geben, wo man dass besser sehen kann.
Ich sehe die Hauptpunkte von meinem Text gingen in ein Ohr rein und aus dem anderem wieder raus.
zwinker4.gif


Die untere Abschätzung fußt nämlich ebenso auf keiner soliden Grundlage, also kann man sich diese Behauptung ganz sparen.
Die Fläche für Raytracing-Einheiten könnte nämlich genauso 1/16 betragen.

Und Nvidia hat kein Schaubild mit einer Flächeneinteilung präsentiert, wenn man drei Textboxen über ein Fake-Bild als solche interpretiert, dann sollte man lieber keine News darüber schreiben.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: hfb
<br>
Ich sehe die Argumente gingen in ein Ohr rein und aus dem anderem wieder raus. <img src="http://extreme.pcgameshardware.de/images/smilies/zwinker4.gif" alt="" title="Zwinker" smilieid="54" class="inlineimg" border="0"><br><br>Die untere Abschätzung fußt nämlich wie gesagt auf keiner soliden Grundlage, also kann man sich diese Behauptung auch ganz sparen. <br>Die Fläche für RT-Einheiten kann genauso 1/16 betragen. <br>Und Nvidia hat kein Schaubild mit einer Flächeneinteilung präsentiert, wenn man drei Textboxen über ein Fake-Bild als solche interpretiert, dann sollte man lieber keine News darüber schreiben.

Was ist los mit der Künstlerischen gestaltung in deinem Text? Ich sehe das nur bei deinen Post´s so...
 
Das würde mich auch interessieren, denn es nervt tierisch, wenn in einigen Fällen die Formatierung sich völlig zerschießt.
Woran es liegt weiß ich nicht, NoScript, meinem Systemmix, keine Ahnung.

Könnte der eingestellte Zeichensatz in deinem Browser sein. Der BB-Code Parser vom Forum scheint damit teilweise nicht klarzukommen.
 
Ich sehe die Hauptpunkte von meinem Text gingen in ein Ohr rein und aus dem anderem wieder raus. ;)
Nein, wir gehen dabei nur völlig unterschiedlich herran.
Prognosen basierend auf Zahlen und Fakten sind mir auch viel lieber.
Aber wie immer gibt es die noch nicht.
Und wenn wir Pech haben wird es die auch nie so detailliert geben.
Z.B. hat Nvidia erst Jahre nach Maxwell zugegeben das die Architektur TBR nutzt, und dass auch nur nebenbei erwähnt.

Wir müssen halt auf die Tests dazu warten, die aber mit Sicherheit auch nicht alle Fragen beantworten werden.
Es sind ja nur noch knapp 2 Tage bis zur Gamescom.
 
ich habe das jetzt schon öfter gesehen bei dir, und jetzt war ich so unerschrocken mal zu fragen^^ :) wer weiß. also Noscript ging mit den Üblichen von mir besuchten Seiten quasi gar nicht seit dem Neuen Firefox deshalb hatte ich es Runtergschmissen. Aber das muss ja nicht das Problem sein. Ich hatte das auch mal ne Zeit lang ausschließlich "hier" aber das hatte sich von selbst nach 1 bis 2 Wochen erledigt. Den Grund gefunden hatte ich nämlich nicht..
 
Zurück