Nvidia Geforce RTX 2080 (Ti): Diese technischen Daten sind wahrscheinlich

@Locuza: Wo siehst du den Einsatz der TCs bei den Consumer Karten? Kann man die geometrischen Transformation (Translation, Rotation) nicht extrem schnell damit berechnen?
 
Dadurch, dass die Shader selbst aber sehr wahrscheinlich schneller geworden sind, die Bandbreite höher ist und die Taktraten (mutmaßlich) etwas höher boosten da die TDPs auch etwas höher sind würde ich auf all das geschätzte 15-20% drauflegen. Bedeutet eine 2080er wird wahrscheinlich ein bisschen schneller als eine 1080Ti und die 2080Ti schätze ich auf 30-40% schneller als die 1080Ti.

Das ist aber blind gerechnet und muss mit der Realität nicht zwingend was zu tun haben.

Ich würde wetten du liegst im Bereich +/- 3% an der tatsächlichen Performance! :daumen: Bald wissen wir mehr.

An alle Pessimisten: Immer im Hinterkopf behalten: alle angeblichen Insider sprachen bisher von einer "großen" Überraschung.
 
Nicht einmal der 104er Chip im Vollausbau ist enttäuschend.

Das ist mMn das bemerkenswerteste, die Vorgänger der RTX 2080 (GTX 1080, GTX 980...) kamen noch als Vollausbau. Nur bei der xx80Ti-Reihe war man Salavage-Chips gewöhnt. Jede (zweite) Generation wird mehr und mehr herausgequetscht.
 
Zuletzt bearbeitet von einem Moderator:
Bei NV kann man seit Jahren davon ausgehen dass die neue 80er einiges schneller ist als die letzte Ti, ihr dürft das hier nicht mit AMD verwechseln.
Die Preise in der Region von 800 für die neue 80er und 1000 für die neue Ti sprechen dafür dass es diesmal wieder so sein wird.
Vermutlich hat sich halt was bei den IPC getan und DDR6 wird auch was bringen.
Ich tippe auf
1080Ti = 100% fps
2080 = 120% fps
2080Ti = 144% fps
Wenn's in etwa so rauskommt, nehm ich ne Ti, ez.

Irgendwas sagt mir das es diesmal nicht so sein wird, vlt dass beide Varianten gleichzeitig starten, was imho für die Ti Variante einmalig ist. Schätze also ehr, dass die RTX 2080 Ti 10-20% schneller sein wird als die GTX 1080 Ti und die RTX 2080 nur maginal schneller als diese sein wird zumindest, wenns um die klassische Rasterisierung geht, die wohl noch einige Jahre überwiegen wird.

Was Raytracing angeht, ist ja noch offen wieviele Tensor- & RTX Recheneinheiten in den Consumerkarten überhaupt aktiviert sein werden, und ob diese in bisherigen Spielen ohne Patch überhaupt genutzt werden können. (Und sei es nur für Antialiasing) Zwar ist der Speicher schneller, aber die zusätzlichen Recheneinheiten für RTX und Tensorkerne werden wohl sich nicht so hoch takten lassen, wie der Rest des Chips. Natürlich ist auch der Fertigungsprozess ein anderer als bei Pascal und etwas feiner aber im Grunde fast gleich, denke aber, Nvidia wird ein wenig optimiert und ein paar Bugs gefixt haben, die Leistung pro Takt wird vlt. um die 5% zulegen.
 
Es ist doch eigentlich ein ganz kohärentes Muster zu erkennen. Entegen einiger Optimisten zeigt sich alle zwei Generationen ein deutlicher Sprung in der Leistung. Sowohl bei Amd wie auch bei Nvidia.
Pascal ist weit gesprungen und Turing hüpft ein wenig weiter. Das war zu erwarten, die Wunder die hier einige erhoffen geben die Rohdaten nicht her.

Was an 280 Watt moderat sein soll weiß wohl nur der Oberst.
Die Kühlkonstruktionen können getrost als monströs bezeichnet werden.
 
Nein. alles bezog auf die Einschätzung aus dem 3dcenter, bei der auch eindeutig drin steht dass es eine Schätzung ist.
Nicht dein erster Beitrag und meine Empfehlung gilt natürlich allgemein, für jetzt und die Zukunft.
Wo es hoffentlich Sinn ergibt, dass man ungewisse Dinge nicht als Fakt niederschreiben sollte, vor allem wenn die Grundlage für die Behauptung schwammig ist und die Behauptung selber noch relativ präzise Angaben machen möchte, wie z.B. 1/3.

Du hast übrigens auch eine Prognose abgegeben:
Durchaus, aber damit es zu keiner Verwirrung vorkommt, ich habe deinen Beitrag so vernommen wie er dasteht:
"Aber fast 1/3 der Die-Fläche gehen dabei beim GT 104 allein für RT-Einheiten drauf."
Mit RT = RayTracing-Core, wie Nvidia es auch präsentiert hat.
Stellt dir vor BMW erweitert den Motor ihrer Autos um eine spezielle Turbo-Funktion, du wüsstest einfach grob das die Erweiterung eines Motors nicht 1/3 vom ganzen Gewicht des Autos ausmachen wird.
Du hast nämlich eine Vorstellung davon wie groß ein Auto ist, ein gängiger Motor, dass es eine Karosserie gibt, Reifen, Sitze usw.

Bei Turing verhält es sich ganz analog, es gibt ein Front-End mit Rasterizern/Geometry-Engines, es gibt die Shader-Units mit programmierbaren Einheiten, welche alle mögliche Operationen können, Scheduler welche alles verwalten, die Caches und das Register-File etc..
Raytracing- und Tensor-Cores sind spezielle HW-Logik, die sich um einen spezifischen Bereich kümmern und sich in die bestehende Infrastruktur der SMs eingliedern, entsprechend ist es unrealistisch das Raytracing-Cores 25% von der ganzen Die-Fläche des Chips ausmachen würden.
Für Tensor-Cores gilt das gleiche, die Präzision mit maximal FP16-Multipliern und FP32-Add und der beschränkten Programmierbarkeit gibt es einfach logisch nicht her, dass die soviel Platz verbrauchen würden.
Natürlich kosten beide Erweiterungen irgendetwas, dafür bräuchte es genaue die-shots, aber man kann Gewissheit sagen, dass dort nicht jeweils 25% vom ganzen die-space draufgehen.

Nun deutlich realistischer fällt die grobe Extrapolation von Leo aus, wo rein auf die-size bezogen für RayTracing-Cores und Tensor-Cores ~28% anfallen würden, aber das fußt eben auch auf der Annahme das bei Turing absolut alles gleich viel Fläche verbraucht und der Rest eben diese zwei Dinge darstellt.
Dabei weiß man das Turing INT und FP-Pipes getrennt hat und simultan ausführen kann, heißt es gibt zwei unabhängige Ports dafür, dass kostet schon die-space und muss pro Shader-Core bezahlt werden.
Den L1$ gibt Nvidia als unified an, vermutlich ist der Shared Memory zusammen mit dem L1$/Texture-Cache wie bei Volta verschmolzen.
Volta hat ganze 128KB pro 64 ALUs, behält Turing zumindest die Proportionen bei, würde Nvidia pro Shader-Core auch mehr für die Caches bezahlen müssen.
Und dann gibt es noch die Angaben über höhere Geometrie/Pixeldurchsätze, dazu kommt dann auch noch NVLINK was GP102 fehlt, die stärkeren Video-Engines etc.
Also kann man ebenso hier mit Gewissheit sagen, dass die "mindestens" 25% für RT- und Tensor-Cores auch nicht hinkommen.

Ohne ein grobes Gefühl für den Flächenverbrauch der einzelnen Logikbausteine kann man sich im Kopf natürlich kein Bild machen, entsprechend helfen die-shots welche die Einheiten gliedern:
mullinsdieshot_12001-jpg.1006612

Das ist eine offizielle Einteilung von AMD selber bezüglich ihres kleinen 28nm Kabini SoC mit gerade mal 100mm², aber man erkennt das das Zeug drum herum auch mehrere mm² pro Einheit kostet.
Wer mag kann sich auch den GP100 anschauen, die Einteilung ist aber spekulativ, dass mit den SMs und HBM2-Interface stimmt aber:
http://i.imgur.com/OYcznNU.png

@Locuza: Wo siehst du den Einsatz der TCs bei den Consumer Karten? Kann man die geometrischen Transformation (Translation, Rotation) nicht extrem schnell damit berechnen?
Da bin ich überfragt, aber Geometrie/Physikberechnungen laufen soweit ich weiß aus Präzisionsgründen mit FP32 ab, dafür wären die Tensor-Cores ungeeignet und selbst mit FP32 gibt es Präzisionsartefakte in weiter Entfernung.
Für Konsumenten sehe ich als Laie bisher nur das was öffentlich gemacht wurde, die Beschleunigung von Denoising-Algorithmen über Tensor-Cores beim Raytracing-Einsatz.
 

Anhänge

  • MullinsDieShot_12001.jpg
    MullinsDieShot_12001.jpg
    885,8 KB · Aufrufe: 248
Es ist doch eigentlich ein ganz kohärentes Muster zu erkennen. Entegen einiger Optimisten zeigt sich alle zwei Generationen ein deutlicher Sprung in der Leistung. Sowohl bei Amd wie auch bei Nvidia.
Pascal ist weit gesprungen und Turing hüpft ein wenig weiter. Das war zu erwarten, die Wunder die hier einige erhoffen geben die Rohdaten nicht her.

Was an 280 Watt moderat sein soll weiß wohl nur der Oberst.
Die Kühlkonstruktionen können getrost als monströs bezeichnet werden.

also 30W kann man wohl für den VL abziehen

und die restlichen 250W ... kommm halt am Ende auf Die wirkliche Leitung an

und irgendwo hab ich gelesen, dass NVLink auch 20W zieht

wären 230W ohne die beiden Features

na wer weiß ... 1,5 Tage noch ^^
 
Zuletzt bearbeitet:
also 30W kann man wohl für den VL abziehen

und die restlichen 250W ... kommm halt am Ende auf Die wirkliche Leitung an

und irgendwo hab ich gelesen, dass NVLink auch 20W zieht

wären 230W ohne die beiden Features

na wer weiß ... 1,5 Tage noch ^^

Kommt drauf an ob der NV Link die Bordpower gerechnet wird oder unter die TDP fällt. Das handhaben ja beide Hersteller jeweils anders.
 
Nein, wir gehen dabei nur völlig unterschiedlich herran.

Nein.
Die Diskussion hatten wir doch gerade erst.
Du formulierst Vermutungen und Spekulationen als Fakten und wunderst dich dann, dass dir massiver Widerspruch entgegenschallt.

Deine Spekulationen sind ja OK, deine faktenschaffende Ausdrucksweise ist das Problem.

Bei Gecan war das immer sehr lustig, bei dir ist es das nicht.
 
Zuletzt bearbeitet:
"Wir" hatten dazu keine Diskussion, sondern eher war Rollora verärgert.
Und normalerweise stelle ich Gerüchte nicht als Fakten da.
Meistens verlinke ich ja auch entsprechende Primär-, oder Sekundärquellen.
Was ich nicht machen werden, ist ständig im Konjunktiv zu schreiben, und bei jedem Satz zu wiederholen dass es Gerüchte oder Spekulationen sind.
Es bringt auch nichts das ständig von mir zu fordern.
So wie ich eine ignore-Liste habe, solltet ihr mich auf ignore stellen, wenn euch ein Diskussion mit mir keinen Spass macht.

Abgesehen sind ein Großteil der News hier bei PCGH Spekulationen und Gerüchte.
Meidet doch einfach solche Themen wenn das euch nervt.
Bei solchen Glaskugelthemen ist es doch logisch das viel spekuliert wird.

Und oft erkennt man das schon in der Headline ob es wieder einmal ein Spekulationsthread ist, wie auch hier:
"Diese technischen Daten sind wahrscheinlich"
 
Zuletzt bearbeitet:
Und das dringend mehr Konkurrenz im GPU-Bereich gebraucht wird, wird selbst Oberst Klink einsehen.
Da Navi als Architektur wohl rein auf Gaming ausgelegt sein wird, bekommen wir da nächstes Jahr wieder mehr Konkurrenz, und 2020 (wahrscheinlich) auch durch Intel.
Hier wäre es so gar gut wenn sich die Gerüchte bestätigen, dass ein Großteil von AMDs RTG für den Semi-Custom-Chip der PS5 abgestellt wurden.
 
Zuletzt bearbeitet von einem Moderator:
Was ich nicht machen werden, ist ständig im Konjunktiv zu schreiben, und bei jedem Satz zu wiederholen dass es Gerüchte oder Spekulationen sind.
Es bringt auch nichts das ständig von mir zu fordern.

Dazu fällt mir dann auch nichts mehr ein.
Rolli hatte sich echt Mühe gegeben, dir klarzumachen, wie sehr diese Haltung einer Diskussion schadet.

Abgesehen sind ein Großteil der News hier bei PCGH Spekulationen und Gerüchte.
Bei solchen Glaskugelthemen ist es doch logisch das viel spekuliert wird.

Das ist keine Ausrede, grundsätzlich Fakt und Fiktion nicht semantisch voneinander unterscheiden zu wollen.

Aber ich steige an der Stelle aus, ich habe nicht Rollis Geduld und Ausdauer.
 
Zuletzt bearbeitet von einem Moderator:
Man, stelle mich endlich auf ignore hfb.
Das ist doch nicht so schwer zu finden.
Im echten Leben ist das doch auch so das man nicht mit allen gut auskommt.
Und mit uns beiden wird das hier nichts mehr.

Es ist eigentlich auch albern in einem Spekulationsthread zu fordern, dass alles doppelt und dreifach als Vermutung gekennzeichnet wird,
Übrigens machen Rollora und Locuza das auch nicht immer.
Oft geht das "nur" aus dem Kontext hervor.
Nur beklage ich mich nicht andauernd darüber, weil dass für mich in einem Spekulationsthread normal ist.
Und trotzdem, obwohl ich dass nicht unbedingt muss, nenne ich sehr oft Sekundär-, und Primärquellen, auf die ich mich beziehe, und meine Schlussfolgerungen ableite.
 
Wollte jetzt nicht zu extrem überziehen und grundsätzlich greife ich auch nur ungern persönlich Leute an.
Im gegebenen Zusammenhang, mit meinem beruflichen Hintergrund "pro Marktvielfalt/aka pro Alternativen" bin ich vllt übers Ziel hinausgeschossen.
Denke wir sind alle Freaks - in diesem Sinne nichts für Ungut Herr Oberst - ich reflektiere genug um zu wissen, dass auch meine Meinung nicht immer unvoreingenommen ist.
 
Zurück