Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

@Gurdi
aha hast du mal die Ausführungseinheiten in Relation zum Takt gestellt:ugly:

da ist sehrwohl an der Taktschraube gedreht wurden bei Turing, und das nicht zu knapp, um aus 12nm+ die benötigte Leistung zu quetschen, ohne das DIE Limit zu sprengen

Oder das Volta Monster dazu ins Verhältnis gebracht, ergibt das selbe Resultat das Nvidia hier eine hochtaktende Architektur gebaut hat, die sich aber trotz allem bei der Effizienz keine Blöße gibt (Bulldozer anywhere ...)

Das Maximum was geht, verpackt in 12nm+

Und nächstes Jahr die Neuauflage in 7nm mit noch höheren Frequenzen, und oder mehr Units, je nachdem, was mehr Sinn ergibt...

Ist das jetzt Werbung oder eine Analyse?
Dann sag mir doch mal wo du die Taktschraube siehst bei 16Tflops auf einem 750mm² Chip?
Ab wann ist denn bei dir das DIE Limit gesprengt?Vega hat 484mm²(mit HBM), der Gamingableger von Turing wird wohl größer sein....
Eine 1080ti hat 11Tflops bei 314mm² im Referenzdesign. Die 2080 wird ganz sicher nicht der Vollausbau, liegt also deutlich unter 16Tflops.
Die kleine Quadro die wohl als Grundlage für die 2080 herhalten wird hat lediglich 3072 Alus. Das ergibt bei circa 1750Mhz rund"trommelwirbel" 11Tflops. Also quasi identisch wie die 1080ti. Wenn der Chip mit rund 2-2,2Ghz laufen WÜRDE! haut das immer noch keinen vom Hocker mit rund 11,5-12,5 Tflops. Das ergibt bei mir 1080ti Customleistung mit etwas schnellerem Vram(wenn überhaupt die Bandbreite zur 1080ti dürfte ebenfalls auf Augenhöhe sein bei rund 480Gb/s).
 
Zuletzt bearbeitet:
Wenn der Chip mit rund 2-2,2Ghz laufen WÜRDE! haut das immer noch keinen vom Hocker mit rund 11,5-12,5 Tflops.

Für dich vielleicht nicht, für andere ist das im quasi unveränderter Strukturgröße schon beachtenswert, bei zudem noch gesteigerter Effizenz:ugly:

Und mitunter schleppt die RTX Quadro in ihren 750mm² auch noch Einheiten (Tensor u dedizierte RT Units) mit sich herum ,die der 1080 TI vollends abgehen, was deine Milchmädchenrechnung so oder so ad absurdum führt

Ohne jenen Teil wäre der FP32 Part immer noch bei 16Tflops (und das lediglich bei der niedriger taktenden Quadro RTX) , bei immer noch höherer Frequenz, und geringerer Chipfläche zu seinem Vorgänger

Fakt ist Nvidia hat das Taktlimit pro Transistor signifikant gesteigert im selben Node , wenn man sich die Ausführungseinheiten vor Augen führt punkt!
 
Zuletzt bearbeitet:
Für dich vielleicht nicht, für andere ist das im quasi unveränderter Strukturgröße schon beachtenswert:ugly:

Und mitunter schleppt die RTX Quadro in ihren 750mm² auch noch Einheiten (Tensor u dedizierte RT Units) mit sich herum ,die der 1080 TI vollends abgehen, was deine Milchmädchenrechnung so oder so ad absurdum führt

Fakt ist Nvidia hat das Taktlimit pro Transistor gewaltig gesteigert im selben Node , wenn man sich die Ausführungseinheiten vor Augen führt punkt!


Ahja, na dann sag mir doch mal bitte um wie viel genau Nvidia den Takt gesteigert hat und aus welchen Daten du das abliest? Die Rechnung wäre mal interessant.
Taktlimit kennt übrigens aktuell nur Nvidia, sonst niemand.
 
Ahja, na dann sag mir doch mal bitte um wie viel genau Nvidia den Takt gesteigert hat und aus welchen Daten du das abliest? .

Was soll das?
Die Spezifikationen der Quadro RTX ,deren Ausführungseinheiten u Rechenleistung liegen vor, genauso wie die der Vorgänger Volta u Pascal

Wen möchtest du hier also bitte auf den Arm nehmen ,mit dieser geheuchelten Unwissenheit?

Wenn du glaubst das verändert das unvermeidliche ,das wie gesagt Turing ein Hochtaktdesign ist, dann spiel halt weiter den Begriffsstutzigen mir auch egal;)

PS: kleiner Tipp die Mainpage zu dem Artikel zeigt dir schon den Quadro V100 in Gegenüberstellung zur Quadro RTX ,vielleicht fällt da ja schon der Groschen ,wenn du die passende Rechenleistung und Ausführungseinheiten gegenüberstellst, aber ich denke wohl eher nicht ;)
 
Zuletzt bearbeitet:
Die wesentliche fp32 Leistung lässt sich einfach errechnen:
GTX 2080 ~ 4608SP@1.7-2.1Ghz ~ 15,6-19,3Tflops
GTX 2070 ~ 3072SP@1.7-2.1Ghz ~ 10,4-12,9Tflops

Titan XP - 3840SP@1.7-2.0Ghz ~ 13.0 - 15,3Tflops
GTX 1080Ti ~ 3584SP@1.7-2.0Ghz ~ 12,1-14,3Tflops
Vega 64 ~ 4096SP@1.4-1.7Ghz ~ 11,4-13,9Tflops
GTX 1080 ~ 2560SP@1.7-2.0Ghz ~ 8,7-10,2Tflops

Die GTX2070 wird also der Gegner von Vega 64 und NV platziert die 2080 über der 1080Ti. 2080 rund 20-25% schneller als 1080Ti und 2070 rund 10-15% schneller als 1080.
Insgesamt erwartbar, aber für 2 Jahre Entwicklung eher schwach.
 
Mich unterscheidet nur das ich einige Gerüchte glaube, und daraus auch meine Position dazu ableite.
Das mache ich aber auch nur wenn sie halbwegs glaubhaft sind.
Und Koduris Entscheidungen passen nahtlos zu den Gerüchten, auch wie sich Vega entwickelt hatte.
Lol. Echt jetzt?
Also wenn man sich irgendwas aus dem Hintern zieht ist es für dich in Ordnung darauf seine Meinung zu basieren, nur weil das ganze irgendwie schlüssig "klingt"?
Navi ist eine GPU Architektur, sie ist entwickelt mit den Ressourcen die man nunmal hat. Sie ist sicher nicht zu zwei Drittel extra für die PS5 entwickelt sondern es arbeiten halt temporär mehr Leute an einem Custom Chip für einen Hersteller - wie das für einen Semicustom APU Hersteller nunmal "üblich" sein sollte. Du machst aus einer Fliege schon wieder was ganz was großes.

Beschäftige dich doch einmal mit wissenschaftlichem Arbeiten. Nicht, dass das hier verlangt wäre, es ist schließlich ein Forum wo Gerüchte ausgetauscht werden. Aber dann würdest du mal etwas besser aussieben können, welche Gerüchte wie glaubhaft sind und aus welchen Gründen welche Entwicklungen geschehen um zu besseren Schlüssen zu kommen.
Aufgrund der aktuellen Ankündigung kann man bei der RTX2080 auf welche Geschwindigkeit schließen?
Turing scheint ja doch um einiges schneller zu sein als erwartet.
Ich denke die "2" in 2080 steht für die doppelte Geschwindigkeit zur GTX1080, also +100%.
Demnach ist aber die 9xxer Serie nur rund 20% schneller als die 7xxer Serie?
Namen sind Schall und Rauch. 2xxx klingt nach mehr und deshalb lässt es sich besser vermarkten. Genau wegen deiner obigen Schlussfolgerung tippe ich seit über einem Jahr auf 2xxx als Nachfolger zur 10xx Serie und nicht 11xx. Aber es gibt ja auch Gerüchte, die tatsächlich erst die 11xx Serie bei Turing sehen, und den 7nm Shrink wegen der zu erwartenden Leistungsexplosion dann 20xx zusteht.

Aber Nvidia ist gut @ Marketing, also werden wir schon sehen ;)
Beim Thema Treiber hatte ich noch vor dem Release von Vega geschrieben, dass ich vermute dass die Treiberpflege für Vega länger dauern wird, und auf Maxwell verwiesen wo Nvidia auch länger brauchte.
Du hattest noch nachgefragt warum dass länger als "normal" dauern sollte.

Bei derart viel neuen Features wie bei Vega hatte ich das schon selbst erkannt, dass AMD entsprechend viel Zeit brauchen wird, du nicht.
Und es kam genau so wie ich vermutet hatte, so gar noch etwas schlimmer bei Vega.
AMD tat sich sehr schwer die Treiber zu optimieren, selbst Monate nach Release.

Das war jetzt aber nicht das einzigste Bsp. wo ich nur Gerüchte für eine eigene Einschätzung hatte, und trotzdem richtig lag.
So wie ich ihn kenne hätte sich Locuza wohl eine technischere Antwort erwartet.

Also warum genau das Optimieren denn so lange dauern soll, welche Internen Vorgänge dazu geführt haben, dass das noch nicht bei Release soweit ist, warum die Konkurrenz meist bei Release wesentlich ausgereiftere Treiber hat und AMD nicht etc etc.

Und entgegen der Vermutungen und deiner Rechthaberei hat sich an der Vega Performance nach wie vor kaum was bewegt und es scheint einfach so, dass die Architektur selbst ein Fehlgriff in verschiedenen Bereichen ist.

Dass eine GPU nach Release noch Treiberupdates erhält ist kein dich bestätigendes Knowhow das nur du besitzt und Locuza nicht, es ist eigentlich seit der Geburt von Grafikkarten so....
Bei CB, 3dcenter, Tom´s Hardware, u.s.w. sieht dass übrigens nicht viel anders aus. ^^

Also gerade CB und 3dc sind Quellen die jedes Gerücht wenigstens gleich auf Glaubwürdigkeit hin überprüfen - was du eindeutig nicht machst sondern du strickst dir eine erweiterung dieser Gerüchte zurecht. Bei 3DC sind die Gerüchte und Spekulationen auch immer ganz klar als solche gekennzeichnet
Lol, was? 60% des Umsatzes kommen von der Gamingsparte bei Nvidia, Tendenz steigend.
.
Naja solange man die Preise diktiert.
Sobald sich das normalisiert sollte sich schon nach und nach der Profi (und die anderen) Sektor(en) als gleichwertig zeigen, hat ja über die Jahre hinweg stets zugelegt
 
Zuletzt bearbeitet:
Jetzt bekommen die Oberklasse-Karten Raytracing.
Toll.
Dann können wir ja in 10 Jahren, sobald es bei den Konsolen auch eingeführt wird, auch schon mit Spielen rechnen die es unterstützen.

Mal im ernst wer braucht heute eine Karte die das unterstützt? Die Leute, die sich ne 2080 oder ne 2080Ti kaufen holen sich oft eh jedes oder jedes zweite Jahr das Top-Modell.

Raytracing ist reines Marketing.
Wahrscheinlich möchte Nvidia Rechenleistung zurückhalten (weil von AMD gerade nichts kommt) und will lieber mit neuen "Features" blenden.
Wenn es dann irgendwann mal wieder notwendig ist können sie ganz einfach die Leistung hochfahren (hatten ja genug Jahre Entwicklung...) und stehen wieder gut dar.

Naja kauft mal.
 
@Rollora:
Du hast alles völlig aus dem Kontext gerissen, und überhaupt nicht verstanden was ich geschrieben habe.

Ich habe nie behauptet das seriöse Seiten Gerüchte nicht als solche kennzeichnen, z.B. dass 3dcenter. Meine Antwort bezog sich auf die Anzahl der News die auf Spekulationen und Gerüchten basieren, und nun einmal die Mehrheit der News sind, weil es ganz selten direkte Fakten von der Industrie gibt. Z.B. wurde das Gerücht das Navi für die PS5 entwickelt wurde im 3dcenter auch so gekennzeichnet, und als plausibel eingestuft.

Noch extra zu erwähnen sind die Details, welche WCCF Tech von der Computex 2018 bezüglich des Werdegangs von AMDs Grafikchip-Abteilung "RTG" über die letzten Jahre vermelden. Jene Insider-Informationen sind natürlich nicht offiziell und dürften sich auch kaum jemals bestätigen lassen – sind aber dennoch wenigstens plausibel. Danach soll AMDs CEO Lisa Su vor einiger Zeit bewußt die Entscheidung getroffen haben, AMDs Rückkehr zur Konkurrenzfähigkeit primär über die CPU-Sparte zu richten. Als unterstützende Maßnahme sollte die SemiCustom-Sparte zum solide funktionierenden Geldbringer ausgebaut werden – logisch, hier hat AMD inzwischen seinen eigenen Markt aufgebaut, wo die anderen kaum noch gut mitspielen können. Damit standen generell schon weniger Ressourcen für die Grafikchip-Abteilung zur Verfügung – und wesentlich erschwert wurde dies noch dadurch, das die Konzernspitze gleich zwei Drittel der RTG-Entwickler an die SemiCustom-Sparte abkommandiert hatte, angeblich zugunsten der Entwicklung des PS5-SoCs zugunsten von Sony. An dieser Stelle liegt dann auch ein (weiterer) Grund für den Abschied von RTG-Chef Raja Koduri bei AMD.

In der Summe – und sollten diese Insider-Infos stimmen – wird damit auch klarer, wieso AMD so wenig gerade aus der Vega-Generation herausholen konnte bzw. wieso reihenweise Vega-Features nicht richtig oder gar nicht funktionieren (Meldungen No.1 & No.2). Auf den wenigen berichten Entwickler-Ressourcen kommt vielleicht genau so etwas heraus – ein ambitioniertes Projekt, welches aber in der Praxis nicht das macht, wofür es gedacht wurde und daher dann letztlich nicht diese Performance bringt, die man sich vorab versprochen hat. Die ganze Geschichte deutet aber auch an, das AMDs RTG-Anteilung sicherlich besseres leisten kann, wenn sie nicht derart deutlich bei ihren Ressourcen beschnitten wird. Für die kommenden AMD-Grafikchips ist damit also Besserung zu erwarten, denn AMD hat über den Ryzen-Erfolg jetzt sicherlich wieder mehr Möglichkeiten an der Hand. Ein Selbstläufer wird es allerdings nicht werden, denn regulär ist nVidia derzeit so weit enteilt, das es durchaus Jahre dauern könnte, ehe AMDs RTG-Anteilung wieder den Anschluß findet. Zudem ist Chipentwicklung ein generell langwieriges Geschäft, AMD hat grob vier Jahre an der Zen-Architektur für die ersten Ryzen-Prozessoren gearbeitet.
Hardware- und Nachrichten-Links des 1. Juli 2018 | 3DCenter.org

Bei den Problemen mit den Treibern für Vega kam von AMD selbst eine Bestätigung dazu, dass es deutlich mehr Probleme gibt als üblich, in Hinblick auf die vielen neuen Features von Vega. Zu den Auswirkungen hatte ich gar nichts geschrieben oder sie bewertet.
 
Die wesentliche fp32 Leistung lässt sich einfach errechnen:
GTX 2080 ~ 4608SP@1.7-2.1Ghz ~ 15,6-19,3Tflops
GTX 2070 ~ 3072SP@1.7-2.1Ghz ~ 10,4-12,9Tflops

Titan XP - 3840SP@1.7-2.0Ghz ~ 13.0 - 15,3Tflops
GTX 1080Ti ~ 3584SP@1.7-2.0Ghz ~ 12,1-14,3Tflops
Vega 64 ~ 4096SP@1.4-1.7Ghz ~ 11,4-13,9Tflops
GTX 1080 ~ 2560SP@1.7-2.0Ghz ~ 8,7-10,2Tflops

Die GTX2070 wird also der Gegner von Vega 64 und NV platziert die 2080 über der 1080Ti. 2080 rund 20-25% schneller als 1080Ti und 2070 rund 10-15% schneller als 1080.
Insgesamt erwartbar, aber für 2 Jahre Entwicklung eher schwach.

Die 2080 bekommt aber keine 4606 Shader.
Das wird eventuell. die Titan RTX und später (2019) die RTX 2080Ti.

Die RTX 2080 bekommt ca. 4000 Shader um gerade so die GTX 1080Ti / GTX Titan XP zu schlagen
 
Zuletzt bearbeitet:
Die 2080 bekommt aber keine 4606 Shader.
Das wird eventuell. die Titan RTX und später (2019) die RTX 2080Ti.

Die RTX 2080 bekommt ca. 4000 Shader um gerade so die GTX 1080Ti / GTX Titan XP zu schlagen
Das sind aber keine "normalen" Shader, so kannst du das nicht rechnen.
Oben steht ja, "6x schneller als Pascal".
 
effizienter, super.
beim Metro-Demo fällt mir auf, dass es mit raytracing wieder pechschwarze Schatten am hellen Tag gibt, bei rasterizing eher weniger. wenn ich am hellichten Tag in einen Raum mit nur einem Fenster gehe, suche ich vergebens nach pechschwarzen Schatten. bei der raytracing tech-Demo von Remedy Entertainment stört mich, dass der Raum offensichtlich verwarlost ist, aber die Gläser und Tischoberflächen ebenso offensichtlich super poliert sind. schaut alles super schick aus, keine Frage. aber realistisch is in meinen Augen anders.
für frisch polierte Spielewelten, wo vor allem die Schatten bei zunehmender Entfernung diffuser werden, is das ne sehr schicke Sache.
was interessant wird, wenns massentauglich von Spielen und mindestens midrange-Karten mit akzeptablen fps dargestellt wird. was noch ein paar Jährchen dauern wird.
und was macht AMD, weiterhin die Augen zu und wie das Reh im Autolicht erstarrt stillstehen. gut für NV, semi-gut für AMD und total toll für enthusiastische Gamer.
 
effizienter, super.
beim Metro-Demo fällt mir auf, dass es mit raytracing wieder pechschwarze Schatten am hellen Tag gibt, bei rasterizing eher weniger. wenn ich am hellichten Tag in einen Raum mit nur einem Fenster gehe, suche ich vergebens nach pechschwarzen Schatten. bei der raytracing tech-Demo von Remedy Entertainment stört mich, dass der Raum offensichtlich verwarlost ist, aber die Gläser und Tischoberflächen ebenso offensichtlich super poliert sind. schaut alles super schick aus, keine Frage. aber realistisch is in meinen Augen anders.
für frisch polierte Spielewelten, wo vor allem die Schatten bei zunehmender Entfernung diffuser werden, is das ne sehr schicke Sache.
was interessant wird, wenns massentauglich von Spielen und mindestens midrange-Karten mit akzeptablen fps dargestellt wird. was noch ein paar Jährchen dauern wird.
und was macht AMD, weiterhin die Augen zu und wie das Reh im Autolicht erstarrt stillstehen. gut für NV, semi-gut für AMD und total toll für enthusiastische Gamer.
Die nächsten Jahre werden uns viele Spiele im Regen erwarten :schief:
 
Jetzt bekommen die Oberklasse-Karten Raytracing.
Toll.
Dann können wir ja in 10 Jahren, sobald es bei den Konsolen auch eingeführt wird, auch schon mit Spielen rechnen die es unterstützen.

Mal im ernst wer braucht heute eine Karte die das unterstützt? Die Leute, die sich ne 2080 oder ne 2080Ti kaufen holen sich oft eh jedes oder jedes zweite Jahr das Top-Modell.

Raytracing ist reines Marketing.
Wahrscheinlich möchte Nvidia Rechenleistung zurückhalten (weil von AMD gerade nichts kommt) und will lieber mit neuen "Features" blenden.
Wenn es dann irgendwann mal wieder notwendig ist können sie ganz einfach die Leistung hochfahren (hatten ja genug Jahre Entwicklung...) und stehen wieder gut dar.

Naja kauft mal.

Ich glaube nicht, dass sie Rechenleistung zurückhalten.
Der 12nm Prozess ist ja kein neuer Prozess, sondern nur ein neues Label für 14nm.
Sofern da keine radikale Neuerung in der Architektur kommt, wird es keine monströsen Sprünge geben.
Für die Quadro Karten haben sie knapp 300 MHz am Takt gedreht, um das Minus an Kernen im Vergleich zur GV100 auszugleichen und noch ein wenig mehr rauszuholen.

Es ist aber kein riesiger Sprung und war auch davor schon durchaus möglich.

Ich bin gespannt, inwiefern Nvidia da für die Konsumenten an der Taktschraube gedreht hat.


Edit:
effizienter, super.
beim Metro-Demo fällt mir auf, dass es mit raytracing wieder pechschwarze Schatten am hellen Tag gibt, bei rasterizing eher weniger. wenn ich am hellichten Tag in einen Raum mit nur einem Fenster gehe, suche ich vergebens nach pechschwarzen Schatten. bei der raytracing tech-Demo von Remedy Entertainment stört mich, dass der Raum offensichtlich verwarlost ist, aber die Gläser und Tischoberflächen ebenso offensichtlich super poliert sind. schaut alles super schick aus, keine Frage. aber realistisch is in meinen Augen anders.
für frisch polierte Spielewelten, wo vor allem die Schatten bei zunehmender Entfernung diffuser werden, is das ne sehr schicke Sache.
was interessant wird, wenns massentauglich von Spielen und mindestens midrange-Karten mit akzeptablen fps dargestellt wird. was noch ein paar Jährchen dauern wird.
und was macht AMD, weiterhin die Augen zu und wie das Reh im Autolicht erstarrt stillstehen. gut für NV, semi-gut für AMD und total toll für enthusiastische Gamer.

Da sieht man sehr schön, wie die persönliche Wahrnehmung mit der Realität kollidiert...
Die AMD Raytracing Technik Radeon Rays basiert auf OpenCL und läuft auf ALLEN GPUs, die mindestens OpenCL 1.2 unterstützen
Nach aktueller Zählung wären das:
OpenCL - Wikipedia

(2011+) for some AMD GCN 1st Gen some OpenCL 2.0 Features not possible today, but many more Extensions than Terascale
(2009+) AMD TeraScale 2 & 3 GPU's (RV8xx, RV9xx in HD 5000, 6000 & 7000 Series)
(2011+) AMD TeraScale APU's (K10, Bobcat & Piledriver-based)
(2012+) Nvidia Kepler, Maxwell & Pascal GPU's (GeForce 600, 700, 800, 900 & 10-series, Quadro K-, M- & P-series, Tesla K-, M- & P-series)
(2012+) Intel 3rd & 4th gen processors (Ivy Bridge, Haswell)
(2013+) Qualcomm Adreno 4xx series

Aber OpenCL ist halt ein offener Standard... also Gift für Nvidias Geschäftsmodell der geschlossenen Techniken.
Schade... denn ansonsten könnten ALLE Spieler davon profitieren.


Das sind aber keine "normalen" Shader, so kannst du das nicht rechnen.
Oben steht ja, "6x schneller als Pascal".

Aha... hast du bemerkt, dass sich der Kommentar nur auf Raytracing bezieht?
Ist für alles andere also sinnlos.
Und man kann seit Jahren zuverlässig die Rechenleistung berechnen - Wenn die Shader plötzlich 6 Mal so schnell wären, wie die von Pascal, bräuchte es nicht über 4000 davon, um bei 1730 MHz auf 16 TF zu kommen.
 
Zuletzt bearbeitet:
oh, ja, sorry, mein Fehler. die Aussage was AMD betrifft, war allgemein gemeint. ging aber aus meinem Text so nicht hervor. Danke dir für die Korrektur.
 
Aha... hast du bemerkt, dass sich der Kommentar nur auf Raytracing bezieht?
Ist für alles andere also sinnlos.
Und man kann seit Jahren zuverlässig die Rechenleistung berechnen - Wenn die Shader plötzlich 6 Mal so schnell wären, wie die von Pascal, bräuchte es nicht über 4000 davon, um bei 1730 MHz auf 16 TF zu kommen.
Eben nicht, lies doch mal den Bericht!

Zitat:
"Auch bei der klassischen Rasterisierung setzt Nvidia auf Verbesserungen, was auch der Geforce-Turing zugutekommen wird. In seiner Pressemeldung spricht Nvidia allgemein von "6 Mal schneller als Pascal" und nennt neue Techniken wie "Variable-rate Shading", "Texture-space Shading" und "Multi-view Rendering" - profitieren sollen Spiele und VR-Anwendungen."
 
Eben nicht, lies doch mal den Bericht!

Zitat:
"Auch bei der klassischen Rasterisierung setzt Nvidia auf Verbesserungen, was auch der Geforce-Turing zugutekommen wird. In seiner Pressemeldung spricht Nvidia allgemein von "6 Mal schneller als Pascal" und nennt neue Techniken wie "Variable-rate Shading", "Texture-space Shading" und "Multi-view Rendering" - profitieren sollen Spiele und VR-Anwendungen."

Wie immer bleibt Nvidia da angenehm vage, was genau 6 Mal schneller ist. Nur einzelne Techniken aufzuzählen bedeutet nicht, dass alles gleich 6 Mal schneller ist.
Die Rechenleistung an sich wird dadurch nicht besser.
Ohne genaue Angaben, welche Vergleichsbasis Nvidia da herangezogen hat, ist die Aussage wertlos.
 
Zurück