Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Ich kenne die genauen Details der Chips natürlich nicht, aber ich halte es für sehr Wahrscheinlich, dass die Spezialisierung auf Raytracing gravierende Einschränkungen mit sich bringen könnte. Wenn IMG hier wirklich einen "Wunderchip" hätte, würden ihnen Hollywood die Bude einrennen, die bräuchten dann zum Rendern ihrer Filmchen nicht mehr riesige Serverfarmen.

Mein Tipp ist: Die Dinger sind sehr gut in einer einzigen Sache, aber für "echte" Projekte reicht das eben noch nicht.

Naja. Bis wir fotorealistische Bilder in 15 ms rendern können, dauert es vermutlich noch ein wenig.

Die Anzahl der Drawcalls und die dahinter stehende Rendermethode haben erst mal nicht viel miteinander zu tun. Das hängt von der Art der Implementierung beider Techniken, und auch von der zu rendernden Szene ab.

Es gibt durchaus Spiele mit HDR-Unterstützung (Mass Effect Andromeda z.B.), aber um die Vorteile von Raytracing zu genießen braucht es einen solchen Monitor nicht.

Quantencomputer in 5 Jahren :D
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

toll... das wird ja genauso Bahnbrechend wie DX12.

"Mist.. wir kriegen die Chips nicht schneller kleiner... dann zauben wir mal was neues aus dem Hut das mit viel Glück in 6 Jahren in 20% der Spiele genutzt wird.
Wir gehen den Weg aber ohne uns mit AMD abzusprechen. Nur mit Microsoft machen wir einen Deal...die brauchen ja dringend irgendwas für Win 10 was sich für Gamer von Win 7 unterscheidet."

alles bla bla....
da kommt auf Jahre nichts bei raus.
außer ca. 2-3 Windows 10 Store exclusive Spiele mit exclusiver Unterstützung für Nvidia Raytracing. Was aber am Ende doch langsamer ist als DX11.... aber die Schatten und die Reflexionen sehen dann richtig toll aus.

Ach herrlich - wie viele Games gab es den mit der tollen Mantle 'wurstel' API von AMD? AMD's Radeon Technologies Group (RTG) ist sowas vor bedeutungslos bei den Game Entwicklern!

Gut dass hier Nvidia mit GameWorks & NVIDIA “RTX Ray-Tracing” Technology die Leaderrolle für NextGen Games & VR übernimmt, mit Branchenführer wie Epic Games (Unreal Engine), Unity Technologies (Unity Engine), ElectronicArts (Frostbite Engine), Remedy Entertainment und 4A Games (Metro Exodus), mit Microsoft DirectX Raytracing zusammen ... einfach Top!

AMD vernachlässigt jahrelang den Game Entwicklern Support - dass wollen sie nun 2018 anfangen zu ändern ... toll!

Nvidia ist seit Jahren Marktführer mit neuen Techniken, die sowohl in der Filmindustrie als auch im Gaming Anwendung finden. Nvidia muss nicht auf AMD warten - denn Nvidia pusht mit zahlreichen Partnern das Gaming weiter innovativ nach Vorne - dazu braucht es kein AMD! Und neue Nvidia Grafikkarten gibt's auch bald .... ;o) @ GTC'18

- Chaos Group Unveils New GPU Rendering Architecture at GTC 2018
- NVIDIA Reveal VRWorks 360 Degree Video 1.5 Release, Partners Comment On SDK’s Inclusion – VRFocus
- Unity Unveils 2018 Roadmap at GDC – Unity Blog
- Experiments with DirectX Raytracing in Remedy’s Northlight Engine - Remedy

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

BTW. bin Live vor Ort at GTC'2018 in San Jose, Kalifornien - Morgen wird's lustig & interessant @ Nvidia Keynote (18:00 Uhr Livestream)

DON'T MISS THE GTC 2018 KEYNOTE / See NVIDIA CEO Jensen Huang present live on March 27, 9:00 a.m. PT >>> AI & Deep Learning Conference | GTC 2018 | NVIDIA
 

Anhänge

  • Nvidia “RTX Ray-Tracing” Technology - Broad Industry Support.PNG
    Nvidia “RTX Ray-Tracing” Technology - Broad Industry Support.PNG
    113,3 KB · Aufrufe: 32
Zuletzt bearbeitet:
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Bei Mantle haben sich viele gefreut, dass endlich frischer Wind im Bereich APIs kommt.

Die Ernüchterung trat dann mit DX12 ein, was bis heute nur in wenigen Bsp. überzeugen konnte, und nicht selten ist DX 11 so gar noch schneller.

Bei Raytracing arbeitet Nvidia nun mit MS zusammen, und versucht die Technik zu pushen, aber wieder in Verbindung mit proprietären Engagement wie dem eigenen RTX. In Verbindung mit dem eigenen RTX wird AMD hier immer den Kürzeren ziehen.
Geforce 2018: Nvidia und Microsoft fordern Ray-Tracing in DirectX 12 [Update 2]
Unterm Strich wird der Markt so noch mehr fragmentiert, und Nvidia versucht sich immer mehr von AMD abzugrenzen, auch mit dem neuen GPP-Programm.
Geforce Partner Program: AMD-Grafikkarten teilweise ohne Gaming-Marken
MSI entfernt AMD-Grafikkarten aus seinem "GAMING"-Brand | 3DCenter.org
Damit sind wir nun leider in einer Situation gelandet, wo nVidia augenscheinlich den Wettbewerb aktiv verzerrt....Da dieser Fall nunmehr nicht das erste größere Ärgerniß mit nVidia ist (GameWorks-Programm, GeForce GTX 970 mit nur 3,5 GB Speicher & Pflicht zu "GeForce Experience"), kommt hierbei erschwerend hinzu.....nVidia raubt dem Gamer und Hardware-Enthusiasten hier das, worum es ursächlich überhaupt geht – den Spaß.


Nvidia reicht es nicht, dass AMD was PC-Gaming betrifft völlig am Boden liegt, und selbst Intel mit ihren iGPUs öfter genutzt werden, siehe Steam.

Selbst die wenigen User die weltweit noch AMD für PC-Gaming nutzen, will man mit solchen Methoden zu Nvidia bekehren, also AMD den Todesstoß setzen was PC-Gaming betrifft.
 
Zuletzt bearbeitet:
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Wer kauft denn heutzutage noch AMD Grafikkarten ..... nur zahlungskräftige Krypto-Hype-Miner!

Für AMD Fans bleibt da nicht's über - denn AMD Grafikkarten müssen immer günstig, schneller als Nvidia sein und auch noch dass bessere Preis/Leistungs-Verhältnis haben - denn sonst kauft der AMD FAN keine teuren AMD Grafikkarten und wartet einfach noch 2-3 Generationen ab - die Leistung einer R290X reicht noch locker .... ;)

die AMD Aktien sind immer noch massiv überbewertet >>> AMD Is Still Irrationally Overpriced - Advanced Micro Devices, Inc. (NASDAQ:AMD) | Seeking Alpha

26. März 2018 >>>AMD Gets a Downgrade Due to Crypto Fears -- The Motley Fool /// AMD shares are soaring: Ethereum miners are renting Boeing 747s to ship graphics cards to mines — Quartz
 
Zuletzt bearbeitet:
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Wird bestimmt saugeil wenn das in hoffentlich 10 vielleicht erst 20 Jahren kommt. Denke in 20 wird es so sein wie viele sich das vorstellen (Otherland, Sword Art Online oder ähnliche Bücher Filme Animes).
Wenn ---GRoßeS WeNn-- die Idioten keinen flächendeckenden Konflikt anfangen der sich ausweitet.
Die es hinbekommen eine vollständig manipulierbar-veränderbare Welt zu erschaffen potenziell 100k spieler und mehr auf kleiner Fläche (1qm Ingame) darstellend.
Die NPC KI menschenähnlicher vom Verhalten.
Dann werden sich wohl ein paar Leute aus dem RL verabschieden im Rahmen des möglichen.
Mich eingeschlossen.

Aber
Solange das nicht so ist, ist das, wovon die reden, nichts mehr als eine Marketingshow (Was sie ja auch ist^^)
GDC ist ne Messe für neue Produkte und Visionen.
Hoffe das AMD das auf dem Radar hat und wenn es soweit ist mit Nvidia gleichzieht (2-3 Generation)
Kein Endkunde will die Marktdominanz von Nvidia.
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Kein Endkunde will die Marktdominanz von Nvidia.
Die haben wir ja schon seit mindestens 3 Jahren, eigentlich so gar noch länger laut Steam.

Und wenn MS mit Arctic- und Jupiter Sound in den Markt kommt, später wahrscheinlich so gar mit dedizierten GPUs, wird es für AMD nicht leicht werden.
Intels arbeitet an den dedizierten Grafikchips "Arctic Sound" & "Jupiter Sound" | 3DCenter.org
2019/2020 wird das der Fall sein nach Leos Schätzung.

Navi wird nicht der große Wurf werden, mit großer Wahrscheinlichkeit eine überarbeitete Vega-Architektur.

Und Nvidia setzt wie oben beschrieben AMD weiter unter Druck, um auch noch die letzten PC-Gamer zu erreichen, die vorher AMD genutzt haben.
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Es gibt aber einen entscheidenden Unterschied: Mining-Chips werden zum Minen verwendet, die Wunderchips von IMG

Du kapierst es nicht. Es geht um die Tatsache, dass spezialisierte Schaltungen viel effizienter sind. Mining und Videotranscodierung sind nur weitere Beispiele dafür, damit du verstehst, dass es sich nicht um ein Wunder handelt. Informiere dich mal zum Thema ASIC. Das hat nichts mit Wundern zu tun, auch wenn dir das aufgrund deiner Unwissenheit so vorkommt.

werden bisher meines Wissens nicht eingesetzt, weder im Privatbereich noch im Professionellen.

Bevor du dich zum Thema äußerst, solltest du erst einmal deine Wissenslücken schließen. Der Vorgänger wurde bereits 2013 verkauft und in Workstations verwendet:
"The Caustic R2500 is the full-size card for dual CPU workstations, with two RTUs and 16GB RAM and is priced at $1,495."
Caustic previews R2500 and R2100 OpenRL ray tracing PC boards at CES 2013 - With Imagination
YouTube

Ich zweifle nicht an, dass Spezialchips deutlich effizienter sein können. Aber sie sind eben auch entsprechend eingeschränkt. Auf YT findet man diverse solche Videos, sogar FPGAs können aktuelle GPUs beim Raytracing abhängen wenn man es drauf anlegt. Problem ist, viele fortgeschrittenen Rendermethoden wie z.B. rekursives Path-Tracing brauchen schon etwas kompliziertere Chips, selbst GPUs können das nicht ohne CPU-Hilfe. Ich glaube nicht, dass der PowerVR Chip so etwas kann. Dass das nicht im dem Link steht wundert mich auch nicht, das liest sich ja wie ein Werbeprospekt.

Statt wieder nur zu mutmaßen, solltest du dich erst einmal mit Hilfe der verlinkten Quellen informieren. Der PowerVR-Chip kann Rasterizing, Raytracing und Hybridrendering. Wie der Chip aufgebaut ist, steht u.a. im CB-Artikel.
Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Deswegen frage ich dich nochmal: Wenn das alles so toll, einfach, und viel besser als alles Bisherige ist, warum kauft Disney dann nicht einfach PowerVR? Die könnten ihre riesigen Renderfarmen in Rente schicken, und einfach ein paar Racks mit solchen Spezialchips füllen. Das ergäbe dann kürzere Produktionszeiten, niedrigerer Wartungsaufwand und Energieverbrauch, viel weniger Logistik....

Stattdessen benutzen sie größtenteils nicht einmal GPUs, sondern rendern ihre Filme auf Xeons. Warum?

Den OTOY-Link ignorierst du offensichtlich noch immer. (Wenn du kein Englisch kannst, lass dir den Artikel übersetzen.)
Wie Disney reagiert, ist hingegen unbekannt. Deine Mutmaßungen darüber sind irrelevant.
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Immer schnellere Entwicklungszeit?
Aber nicht bei der Hardware...
In den 80ern hat die Entwicklung eines Grafikchips vielleicht ein Jahr gedauert - wenn überhaupt.
Inzwischen reden wir hier von 5 Jahren pro GPU Generation.

Also 4x "Titan V"...wenn man ab der 2. Titan nur ca. 60-70% "mehr" annimmt, dann sind das also um die 300% (aufgerundet!) mehr Leistung, als die beste Einzelkarte, ebenfalls eine Titan V, derzeit leistet.
Geht man von der einer Leistungssteigerung von 30% alle 1-2 Jahre aus, können wir also frühestens in zehn(!) Jahren mit 24 FPS mit Raytracing spielen!? :D

Blöd nur, dass bis dahin wahrscheinlich 8K bei Monitoren Standard ist... :D

mfg
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

In Games werden zu Anfang nur ein kleiner Teil der neue Raytracing Techniken 'nur partiell' bei dafür vorgesehenen Objekten eingesetzt, 60-80% sind weiterhin klassische 3D Polygon Objekte & Tessellation-Shader Environment Game-Scenen.

100% Raytracing Games wird es wohl nie geben - da einfach nicht nötig (oder nur als Vorzeige Engine Tech-Demo), zu ineffizient und Ressourcen fressend.
 
Zuletzt bearbeitet:
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Statt wieder nur zu mutmaßen, solltest du dich erst einmal mit Hilfe der verlinkten Quellen informieren. Der PowerVR-Chip kann Rasterizing, Raytracing und Hybridrendering. Wie der Chip aufgebaut ist, steht u.a. im CB-Artikel.
Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt
Du redest am Thema vorbei. "Raytracing" ist ein sehr breiter Überbegriff, den der PowerVR Chip garanitert nicht abdecken kann (genauso wie heutige GPUs nicht universelle Rasterizer sind - sie können eben nur Dreiecke, Linien und Punkte rastern, aber keine Vielecke, Ellipsen oder Ähnliches.)

Der Power VR Chip kann nicht so viel wie eine Xeon CPU. Punkt. Ich bin des Englischen durchaus mächtig, aber der Link betrachtet das Problem nicht kritisch, sondern ist mehr oder weniger eine abgeschriebene Pressemitteilung des Unternehmens. Und die sagen natürlich nicht, was ihr toller Chip nicht kann.

Wie schon gesagt: Einfaches Raytracen kann der Chip sicher, vielleicht sogar mehr als nur Dreiecke. Aber sonst? Kann das Ding auch mit einzelnen Strahlen den Baum durchsuchen, oder wird das dann unendlich langsam (wie bei GPUs). Kann das Ding selbständig und programmierbar Rekursionen ausführen, z.B. für Monte Carlo Path tracing (GPUs können das nur eingeschränkt und auch erst seit Kurzem)? Wie schnell kann das Teil auf wie viel Speicher zugreifen?

Das alles steht nicht in dem tollen Link, da steht nur das typische Blablabla von wegen "the future of graphics rendering" und x-mal so viel Performance/Watt. Ich habe das ganze schon mal gehört als Intel in den GPU Markt einsteigen wollte und eine Raytracing-Version von Portal auf Larrabee laufen ließ - viel ist da nicht draus geworden.

Deswegen: Mal gucken. Ich interessiere mich dann dafür, wenn es wirkliche, performante Produkte zu kaufen gibt.
 
AW: Nvidia auf der GDC 2018: Die schöne neue Raytracing-Welt

Du redest am Thema vorbei. "Raytracing" ist ein sehr breiter Überbegriff, den der PowerVR Chip garanitert nicht abdecken kann (genauso wie heutige GPUs nicht universelle Rasterizer sind - sie können eben nur Dreiecke, Linien und Punkte rastern, aber keine Vielecke, Ellipsen oder Ähnliches.)

Der Power VR Chip kann nicht so viel wie eine Xeon CPU. Punkt. Ich bin des Englischen durchaus mächtig, aber der Link betrachtet das Problem nicht kritisch, sondern ist mehr oder weniger eine abgeschriebene Pressemitteilung des Unternehmens. Und die sagen natürlich nicht, was ihr toller Chip nicht kann.

Du baust verzweifelt einen Strohmann und spekulierst am Thema vorbei. Mit dem gleichen Pseudoargument kannst du auch gegen Nvidia und AMD GPUs polemisieren. Um Raytracing in Echtzeit zu realisieren, sind die Anzahl der Strahlen pro Sekunde bzw. pro Watt entscheidend und nicht die Flexibilität einer CPU. (Dreimal darfst du raten, warum Intel auf seinen CPUs iGPUs verbaut, statt auf Softwarerendering zu setzen.) Eine CPU ist für Echtzeit-Raytracing viel zu ineffizient. Zu diesem Zweck braucht es dedizierte Hardware.

Wie schon gesagt: Einfaches Raytracen kann der Chip sicher, vielleicht sogar mehr als nur Dreiecke. Aber sonst? Kann das Ding auch mit einzelnen Strahlen den Baum durchsuchen, oder wird das dann unendlich langsam (wie bei GPUs). Kann das Ding selbständig und programmierbar Rekursionen ausführen, z.B. für Monte Carlo Path tracing (GPUs können das nur eingeschränkt und auch erst seit Kurzem)? Wie schnell kann das Teil auf wie viel Speicher zugreifen?

Hier gibt es weitere Details zum PowerVR-Chip:*** Wizard brings ray tracing to real-time graphics - The Tech Report[/url]

Wenn du mehr wissen willst, kannst du deine Fragen auch im imgtec-Forum stellen (oder per Email).

Das alles steht nicht in dem tollen Link, da steht nur das typische Blablabla von wegen "the future of graphics rendering" und x-mal so viel Performance/Watt. Ich habe das ganze schon mal gehört als Intel in den GPU Markt einsteigen wollte und eine Raytracing-Version von Portal auf Larrabee laufen ließ - viel ist da nicht draus geworden.

Larrabee war keine dedizierte Raytracing-Hardware sondern ein Hybrid aus CPU und GPU und daher zu ineffizient dafür. Daraus geworden ist Xeon Phi.
 
Zurück